Universidad del Papaloapan Campus Tuxtepec Compilación...

64
Universidad del Papaloapan Campus Tuxtepec Compilación para materia Computación Licenciatura en Enfermería Contenido tema 1 1. EVOLUCIÓN HISTÓRICA Y DESARROLLO DE LA INFORMÁTICA.......1 1.1 Las computadoras..............................................................................................1 1.1.1 Definición de computadora...................................................................1 1.1.2 Clasificación de las computadoras........................................................2 1.1.3 Tipos de computadoras........................................................................9 1.2 Historia de la computación..............................................................................15 1.2.1 La era mecánica..................................................................................15 1.2.2 La era electromecánica........................................................................18 1.2.3 Las generaciones de computadoras.....................................................21 1.3 Definición de Informática................................................................................39 1.3.1 Computación e Informática.................................................................39 1.3.2 Tipos de usuarios de computadora......................................................43 1.4 Sistemas de representación..............................................................................44 1.4.1 Introducción al Sistema binario..........................................................45 1.4.2 Sistemas de codificación a binario......................................................48 1.4.2.1 Desarrollo de las formas de representación de los números .....49 1.4.2.2 Los métodos de cálculo..............................................................58 1.4.3 Sistematización del razonamiento.......................................................60 1.5 Perspectiva Actual...........................................................................................62 1.5.1 Influencia del uso masivo de Internet.................................................62 1.5.2 Aplicación de la informática (en el área de la salud)..........................62 Elaborado por: M.C. Bertha López Azamar Revisión Marzo 2014

Transcript of Universidad del Papaloapan Campus Tuxtepec Compilación...

Page 1: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Universidad del Papaloapan

Campus Tuxtepec

Compilación para materia Computación

Licenciatura en Enfermería

Contenido tema 11. EVOLUCIÓN HISTÓRICA Y DESARROLLO DE LA INFORMÁTICA.......11.1 Las computadoras..............................................................................................1

1.1.1 Definición de computadora...................................................................11.1.2 Clasificación de las computadoras........................................................21.1.3 Tipos de computadoras........................................................................9

1.2 Historia de la computación..............................................................................151.2.1 La era mecánica..................................................................................151.2.2 La era electromecánica........................................................................181.2.3 Las generaciones de computadoras.....................................................21

1.3 Definición de Informática................................................................................391.3.1 Computación e Informática.................................................................391.3.2 Tipos de usuarios de computadora......................................................43

1.4 Sistemas de representación..............................................................................441.4.1 Introducción al Sistema binario..........................................................451.4.2 Sistemas de codificación a binario......................................................48

1.4.2.1 Desarrollo de las formas de representación de los números .....49 1.4.2.2 Los métodos de cálculo..............................................................58

1.4.3 Sistematización del razonamiento.......................................................601.5 Perspectiva Actual...........................................................................................62

1.5.1 Influencia del uso masivo de Internet.................................................621.5.2 Aplicación de la informática (en el área de la salud)..........................62

Elaborado por:M.C. Bertha López Azamar

Revisión Marzo 2014

Page 2: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

1. EVOLUCIÓN HISTÓRICA Y DESARROLLO DE LA INFORMÁTICA

Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia Taller Multimedia, que dictó en la carrera Gestión de Medios y Entretenimiento, de la Universidad Argentina de la Empresa (UADE, 2010).

1.1 Las computadorasReciben nombres como:

• computadora o computador que proviene del inglés computer, y este del latín computare -calculare.

• ordenador que proviene del francés ordinateur, y este del latín ordinator. El término computadora es más usado en México, el término ordenador es más usado en

España, y el término computador es más usado en Chile y Colombia.Nombres en algunos otros países:

Francés: ordinateur Alemán: RechnerInglés: computer Catalán: ordinadorItaliano: computer Finés: TietokonePortugués: computador Polaco: Komputer

1.1.1 Definición de computadoraUna computadora es:

• un dispositivo electrónico compuesto básicamente de procesador, memoria y dispositivos de entrada/salida.

• una máquina electrónica que recibe y procesa datos para convertirlos en información útil. • una colección de circuitos integrados y otros componentes relacionados que puede ejecutar

con exactitud, rapidez y de acuerdo a lo indicado por un usuario (o automáticamente por otro programa), una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y bien definidas.

• un dispositivo electrónico capaz de realizar operaciones lógicas y matemáticas de manera programada y a gran velocidad

Page 3: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

• un dispositivo mecánico-electrónico que procesa información (numérica, alfanumérica).

Si partimos del hecho de que un sistema es un grupo de elementos que funcionan conjuntamente realizando una tarea determinada, entonces una computadora es un sistema en si mismo.

Una computadora se distingue, actualmente, de cualquier otro dispositivo (por ejemplo de la calculadora no programable), por el hecho de que es una máquina de propósito general. esto significa que puede realizar tareas diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware. Los componentes de una computadora pueden clasificarse en dos: hardware y software

• Hardware implica a todos los componentes físicos que forman parte, o interactúan, con la computadora.

• Software implica el conjunto de programas escritos para la computadora.

1.1.2 Clasificación de las computadorasPueden considerarse diferentes aspectos al realizar la clasificación, puede ser por

capacidad de proceso (o poder de calculo, su por tamaño, por su capacidad de almacenamiento.Principalmente se pueden clasificar por sus capacidades de proceso1 y almacenamiento2 en:

Macrocomputadoras: Estaciones de trabajo Microcomputadoras:

Supercomputadoras Mainframe Minicomputadoras

(Workstation) De escritorio Portátiles (laptop) Asistentes personales

Algunos documentos llegan a establecer como macrocomputadoras únicamente a las mainframes, y separan a las supercomputadoras por encima de ellas y a las minicomputadoras por debajo. Sin embargo para cuestiones de esta materia se considera la clasificación general de macrocomputadoras, estaciones de trabajo y microcomputadoras, tal como se mostró en el listado superior. No debe olvidar que los avances tecnológicos siempre alteran los esquemas de clasificación.Macrocomputadoras

Esta clasificación general engloba a las supercomputadoras, las mainframes y las minicomputadoras; es decir equipos de computo con enormes capacidades de procesamiento y almacenamiento; esto implica que pueden llegar a tener varios procesadores para llevar a cabo los cálculos que se requiere que realicen y generalmente estos procesadores trabajan en paralelo para poder realizar actividades de manera simultanea. Y aun cuando la tecnología avanza a pasos agigantados, estos equipos no dejan de ser costosos, por lo que las empresas y centros de investigación deben realizar un análisis exhaustivo antes de decidirse por un equipo en particular, según sea el uso que se le vaya a dar al mismo.

Anteriormente era usual que ocuparan cuartos completos o incluso pisos enteros de edificios. Generalmente eran colocadas dentro de oficinas con vidrios sellados y aire

1 Medida que se relaciona con la cantidad de microprocesadores que contenga el sistema de computo y a la velocidad del núcleo del procesador o procesadores del mismo.

2 Medido generalmente en cantidad de Bytes que puede almacenarse en Disco Duro.

M.C. Bertha López Azamar 2

Page 4: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

acondicionado especial para mantenerlas a una temperatura baja, y sobre pisos falsos para ocultar todos los cables necesarios para las conexiones de la máquina. Este tipo de instalación ya no es muy utilizada. Hoy en día, es común verlas como una hilera sencilla de grandes archivadores, aunque puede seguir requiriendo de un ambiente controlado.Supercomputadoras:

Son sistemas de computo caracterizados por su gran tamaño y enorme velocidad de procesamiento. Son las más potente y rápida que existen, con capacidades de cálculo muy superiores a las comunes para la misma época de fabricación; se encuentra están construidas para procesar enormes cantidades de información en forma rápida; es decir están el rendimiento en cuanto a velocidad y capacidad de procesamiento ha sido optimizado.

Son de gran tamaño (aproximadamente 557 metros cuadrados), por lo que requieren instalaciones especiales y aire acondicionado industrial para disipar el calor que generan; son las más costosas (varios millones de dólares, por ejemplo algunas llegan a costar 30 millones de dolares). Actualmente una supercomputadora tiene una capacidad de almacenamiento de 5, 19, ó 20 Terabytes (TB), y las más potentes del mundo tienen hasta 700 TB, y manejan millones de peticiones simultáneas de acceso a la información. Contienen miles de microprocesadores, trabajando en forma paralela para aumentar su eficiencia.

Son equipos multiusuario3 que pueden manejar cientos o miles de terminales. Se utilizan para aquellos problemas cuya solución requiere de una gran capacidad de computo, para obtener una respuesta en poco tiempo; por ejemplo, pueden llegar a procesar a velocidades desde 600 megaflops4; por lo que se trata de equipos empleados por especialistas, principalmente en la ingeniería e investigaciones científicas y complejas, y por lo general se les dedica a una tarea específica, usualmente se usan para tareas que requieren cálculo intensivo, como por ejemplo en en meteorología para la predicción del clima, estudio y predicción de tornados, en simulaciones (por ejemplo para simulación: de maremotos, de tsunami, de huracanes, de explosiones de supernovas en el espacio, de detonaciones de una bomba atómica, de impacto de asteroides), para

3 La palabra multiusuario se refiere a un concepto de Sistemas Operativos. En general se le llama multiusuario a la característica de un sistema operativo o programa que permite proveer servicio y procesamiento a múltiples usuarios simultáneamente (tanto en paralelismo real como simulado).

4 En informática, las operaciones de coma flotante por segundo son una medida del rendimiento de una computadora, especialmente en cálculos científicos que requieren un gran uso de operaciones de coma flotante. Es más conocido su acrónimo, FLOPS, por el inglés floating point operations per second. El rendimiento de los equipos puede ser medido en: megaFLOPS (MFLOPS, 106 FLOPS), gigaFLOPS (GFLOPS, 109 FLOPS), teraFLOPS (TFLOPS, 1012 FLOPS), petaFLOPS (PFLOPS, 1015 FLOPS), exaFLOPS (EFLOPS, 1018 FLOPS). Para aplicaciones ordinarias (no científicas) las operaciones sobre enteros (medidos en MIPS – Millones de instrucciones por segundo) son mucho más comunes. De lo anterior se deduce que medir el rendimiento en FLOPS no predice con precisión la rapidez con la que un procesador realizará cualquier tarea. Sin embargo, para muchas aplicaciones científicas, como el análisis de datos, el rendimiento en FLOPS es una medida efectiva.

M.C. Bertha López Azamar 3

Page 5: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

modelar explosiones nucleares. búsqueda de petróleo, control terrestre de un satélite, administración de un reactor nuclear, desdoblamiento de cadenas de ADN, plegamiento de proteínas, elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.

En un articulo publicado en 2002,5 se hace referencia a que más de la mitad de las ventas de supercomputadoras de IBM habían sido realizadas para su uso como servidores WEB Hosting, lo cual es comprensible debido al auge que se dio con la creación de servidores web y el múltiple acceso que deben soportar dichos equipos.Mainframe6

Es una computadora grande y poderosa, es multiusuario (soporta hasta cientos de usuarios), donde los usuarios se conectan desde terminales7, y las tareas de procesamiento la realiza la computadora central (mainframe). Pueden ser usadas como servidores de alta capacidad para redes con muchas estaciones de trabajo, ya que poseen grandes dispositivos de almacenamiento como discos duros de hasta 500 GigaBytes (GB) y cintas de seguridad (Tape Backup). Hoy día llegan a costar desde 360,000 dolares hasta varios millones.

Son computadoras que se caracterizan por su utilización en el manejo de grandes bases de datos en redes corporativas de gran tamaño; se usan cuando por ejemplo las empresas requieren tener centralizados tanto el poder de cómputo como el almacenamiento de la información. Por ejemplo son usadas en sistemas bancarios, administración de vuelos.Minicomputadoras

Surgen en 1960 como una versión más pequeña de las mainframes, de hecho aparecieron cuando los circuitos integrados permitieron la construcción de una computadora de menor costo que las mainframe. Son computadoras multiusuario, y multiproceso8 con menor capacidad que las mainframe, llegan a tener conectados 10, 30 o 40 usuarios, sin embargo pueden conectar hasta 200 usuarios simultáneamente, y aun cuando pueden trabajar individualmente, es común que se encuentren como estación central con muchos usuarios conectados a ella. Siguen siendo computadoras costosas, y pueden tener varios procesadores. Son computadoras de propósitos generales, pero mayormente son más poderosas y más costosas que las microcomputadoras, su tamaño varia de un modelo de escritorio a una unidad de grande del del tamaño de un archivo. Se utilizan principalmente en el sector manufacturero y financiero, con aplicación en el manejo de bases de datos de información y se emplean para la administración de redes de computadoras.Estaciones de trabajo

Son conocidas también por tu nombre en ingles Workstation. Se pueden considerar como una categoría ubicada entre las mini-computadoras y las microcomputadora (debido al 5 El top 500 de las supercomputadoras; junio de 2002; http://ipcitec.freeservers.com/supercomputadoras.pdf6 Nadie sabe realmente dónde se originó el término mainframe. Algunos viejos documentos de IBM definen

explícitamente el término "frame" como una parte integral de una computadora: "el bastidor... estructuras de soporte de hardware... y todas las partes y componentes que contiene". Sólo podemos especular que cuando empezaron a aparecer computadoras de todos los tamaños y formas en los ambientes de cómputo, se referían a la computadora grande como el "main frame" (el bastidor principal), como en el término "the main computer" (la computadora principal). Eventualmente el término se acortó a una palabra "mainframe".

7 Una terminal puede constar simplemente de una pantalla y un teclado, pero que no tiene la capacidad de cómputo. A estas generalmente se les conoce como terminales tontas.

8 Varios procesos en paralelo

M.C. Bertha López Azamar 4

Page 6: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

procesamiento). Pueden contener uno o más microprocesadores y el hardware está optimizado para situaciones que requieren un alto rendimiento y fiabilidad, es decir, tiene un alto rendimiento de procesamiento, mucha cantidad de memoria, computación de multitarea.

Las estaciones de trabajo tienen una gran diferencia con las microcomputadoras en dos áreas principales, internamente, las estaciones de trabajo están construidas en forma diferente ya que generalmente se basan en otra filosofía de diseño de CPU llamada RISC (Reduced Instruction Set Computer - Computación de Juego de Instrucciones Reducidas) con lo que se tiene un procesamiento más rápido de las instrucciones. 9

Pueden ser utilizadas por un solo usuario en aplicaciones que requieran más poder de cómputo que el que ofrece una PC común, en si puede ser una micro o una minicomputadora de altas prestaciones, destinada para trabajo técnico o científico; sirven principalmente para casos donde se requiera desplegar y manipular datos complejos, en sí se utilizan para aplicaciones que requieren procesamiento moderado y capacidades de gráficos de alta calidad; por ejemplo para aplicaciones de ingeniería, CAD (diseño asistido por computadora), CAM (manufactura asistida por computadora), publicidad, creación de software, diseño mecánico 3D, ingeniería asistida por computadora, simulación de ingeniería, diagramas matemáticos, diseño electrónico automatizado (EDA), Ingeniería de software asistida por computadora (CASE) o aplicaciones científicas como sistemas de información geográfica, aplicaciones orientadas a la industria química y farmacéutica (ej. modelado de experimentos químicos), manipulación y representación de imágenes de rayos X, ultrasonidos y escáneres, sistemas de análisis de recursos de la tierra, sistemas expertos basados en técnicas de programación de inteligencia artificial, por mencionar algunas, así mismo, están entre los primeros equipos que tienen la capacidad de la videoconferencia. Es decir para situaciones que requieren una gran cantidad de poder de computación, las estaciones de trabajo son muy usuales.

Debe de tenerse cuidado con el termino ya que también pueden llegarlo a emplear para referirse a una computadora que se conecta a una red de computadoras, aquí una estación de trabajo es una computadora que facilita a los usuarios el acceso a los servidores y periféricos de la red. Existen así estaciones de trabajo de alto nivel y estaciones de trabajo sin disco duro, las cuales tienen el software para establecer la conexión con la red, en el chip ROM, y así pueden cargar el software para funcionar desde el servidor. Alternativamente, las estaciones de trabajo de alto nivel pueden usarse como servidores de archivos y servidores de impresión a usuarios en una red de computadoras.Microcomputadoras

Son las computadoras más difundidas, son conocidas comúnmente como computadoras personales (PC) ya que están diseñadas para ser utilizadas por una persona a la vez. Son sistemas pequeños de propósitos generales, pero pueden ejecutar las mismas operaciones y usar las mismas instrucciones de muchos sistemas grandes. Generalmente utilizan un solo microprocesador. Actualmente la capacidad de almacenamiento llega a los 250 GB y seguirá aumentando con los años.

Estas pequeñas computadoras se encuentran comúnmente en negocios, oficinas, salones de clase y hogares, y se emplean principalmente para el procesamiento de textos, hojas de

9 El tipo de procesador más comúnmente utilizado en equipos de escritorio (microcomputadoras), el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.

M.C. Bertha López Azamar 5

Page 7: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

cálculo, presentaciones con diapositivas, navegar en Internet, correo electrónico, ediciones sencillas de fotografías, música.

Las computadoras personales vienen en todas formas y tamaños, por lo que en este grupo se encuentran las PC de escritorio, las Laptops (portátiles) y los asistentes personales (PDA).Computadora de Escritorio

Son las más grandes de este grupo, normalmente permanecen en un solo lugar (un escritorio o una mesa). Cuentan con un monitor, un teclado, un ratón (como mínimo) conectados a un gabinete en el cual se encuentra el microprocesador. Y requieren estar conectadas todo el tiempo a la toma de corriente.

Dentro de este grupo se puede incluir a la llamada computadora portátil de escritorio (conocida como ordenador portátil de sobremesa en España) o desknote es un híbrido entre una computadora de escritorio y una computadora portátil tradicional. ECS10 introdujo la computadora portátil de sobremesa al mundo de las computadoras a finales de 2001. Una computadora portátil de sobremesa es una computadora portátil con la tecnología y especificaciones (incluyendo potencia y velocidad) más recientes de computadoras de escritorio; combina la unidad principal de computadora (ejemplo placa madre, CPU, disco duro, puertos externos, etc.) con una pantalla de cristal líquido (LCD); por tanto, una computadora portátil de escritorio generalmente tiene un tamaño similar a un portátil grande, aunque a diferencia de éstos, los desknotes requieren un teclado y un mouse externo.Portátiles

Son computadoras personales móviles, son pequeñas por lo que son suficientemente livianas para ser transportadas sin problemas; funcionan con baterías, aunque también pueden permanecer conectadas a la corriente eléctrica. Por lo general tienen una pantalla LCD interconectada, la cual se protege al cerrar la computadora, también incluye teclado, un sensor para mover el apuntador. Suelen tener menos potencia que las computadoras de escritorio, incluyendo menor capacidad de sus discos duros, menos poder de video y audio, y menor potencia en sus microprocesadores. De todas maneras, suelen consumir menos energía y son más silenciosas. Son capaces de realizar la mayor parte de las tareas que realizan las de escritorio, con similar capacidad y con la ventaja de la movilidad. Se pueden encontrar una clasificación más interna: separándose así en notebook, subportátil, netbook y la moderna tablet.

• Las notebook son en general las llamadas laptop o computadora portátil, son computadoras pequeñas con un peso entre 2 y 6 kg., su nombre se debe a que su forma es como la de una agenda, su pantalla suele ser de 12 pulgadas. No hay todavía un factor de forma industrial estándar para las notebook, es decir, cada fabricante tiene su propio diseño y construcción de éstas, esto incrementa los precios de los componentes en caso de que haya que reemplazarlos o repararlos, además de hacerlos más difíciles de conseguir. Incluso a menudo existen incompatibilidades entre componentes de notebooks de un mismo fabricante.

• Una subportátil (del inglés subnotebook) o miniportátil, es una computadora portátil con un tamaño menor, manteniendo las características. Son una nueva clase de

10 Enhanced Chip Set (ECS, Chipset Mejorado) es el nombre utilizado para la versión extendida del chipset original del Commodore Amiga (OCS).

M.C. Bertha López Azamar 6

Page 8: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

portátiles que eliminan la unidad óptica, y reducen la potencia de otros componentes como la tarjeta gráfica, con el fin de disminuir el tamaño físico de las máquinas (y en ocasiones el costo). Son capaces de entrar en el bolsillo de un pantalón (como en el caso de los VAIO serie P). Su capacidad de procesamiento es notablemente menor que los portátiles normales, por eso necesitan sistemas operativos diseñados específicamente, además del uso de almacenamiento remoto. Las subportátiles son más pequeñas que las portátiles tradicionales pero más grandes que las unidades móviles (hadlheld, ultraportatiles o los asistentes personales). Generalmente poseen pantallas de menor tamaño, de entre 7 y 12 pulgadas, y un peso variable (alrededor de 1kg). Debido al ahorro en peso y tamaño el precio suele ser mayor. Suele confundirse a las subportátiles con las netbooks, que son una categoría diferente de computadoras portátiles, aunque con productos superpuestos

• Una netbook11, tambien llegan a ser llamadas nettop12. El término describe a una categoría de subnotebooks pequeñas. son computadoras más pequeñas que una portátiles tradicional pero más grandes que las ultra-mobile pc (UMPC13); generalmente reducidas dimensiones (generalmente poseen pantallas de menor tamaño, de entre 7 y 14 pulgadas), muy livianas (su peso varía desde menos de 1 hasta 2 kg,) lo cual aporta una mayor movilidad y autonomía. Por lo general son más baratas, ya que están optimizadas para usos más básicos (funciones de cómputo básicas como funciones multimedia o navegación por Internet); por consiguiente, poseen procesadores mucho menos potentes pero de bajo consumo, por lo que son computadoras de bajo voltaje. El ahorro en peso y tamaño generalmente se obtiene omitiendo algunos puertos o unidades ópticas, además de utilizar chipsets14 de menor potencia. Respecto de sus hermanas mayores, tienen en común el tamaño pequeño, pero lo que define a una netbook no es su tamaño, sino la reducción de componentes internos (fundamentalmente, carecen de unidad óptica).

• Una tableta (del inglés: tablet o tablet computer) es un tipo de computadora portátil, de mayor tamaño que un Smartphone o una PDA, integrado en una pantalla táctil (sencilla o multitáctil) con la que se interactúa fundamentalmente con los dedos o con una pluma stylus (pasiva o activa), sin necesidad de teclado físico ni ratón (estos se ven reemplazados por un teclado virtual y, en determinados modelos, por una mini-trackball integrada en uno de los bordes de la pantalla). La tableta funciona como una computadora, solo que más orientada a la multimedia, lectura de contenidos y a la navegación web que a usos profesionales. Para que pueda leerse una memoria o disco

11 El término fue creado por la empresa británica Psion para utilizarlo en una gama de computadoras portátiles (llamadas laptop en algunos países) , sin embargo, el término fue reintroducido por Intel en febrero de 2008 con su actual significado.

12 nettop, identifica a las computadoras que tienen características similares de tamaño, prestaciones y precio, pero no son portátiles, sino de escritorio. Tipo de subnotebook pequeña, de bajo costo y bajo consumo, optimizada para funciones básicas de cómputo y acceso a Internet inalámbrico. Son similares a las netbook, sólo que el término nettop se utiliza más para hacer referencia a las subnotebooks que se utilizan como máquinas de escritorio y no tanto portátiles.

13 Es una especificación para un factor de forma de Tablet PC.Fue un ejercicio de desarrollo conjunto entre Microsoft, Intel, y Samsung, entre otros. La portabilidad de la PC Ultra Móvil puede ser atractivo a los viajeros internacionales de negocios y a los "viajeros con mochila" (backpackers) globales, aunque no sea tan cómodo como un pc de sobremesa.

14 Se explicara a más detalle al ver el tema de hardware.

M.C. Bertha López Azamar 7

Page 9: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

duro externo USB, debe contar con USB OTG. El término tableta puede aplicarse a una variedad de formatos que difieren en la posición de la pantalla con respecto a un teclado:◦ El formato estándar se llama pizarra (slate) y carece de teclado integrado aunque

puede conectarse a uno inalámbrico (por ej., Bluetooth) o mediante un cable USB (muchos sistemas operativos reconocen directamente teclados y ratones USB).

◦ Otro formato es el portátil convertible, que dispone de un teclado físico que gira sobre una bisagra o se desliza debajo de la pantalla.

◦ Un tercer formato, denominado híbrido (como el HP Compaq TC1100), dispone de un teclado físico, pero puede separarse de él para comportarse como una pizarra.

◦ Por último los Booklets incluyen dos pantallas, al menos una de ellas táctil, mostrando en ella un teclado virtual.

Asistentes personales (PDA) y computadoras de manoOtra categoría que se encuentra dentro de las computadoras móviles y portátiles, engloba

a los dispositivos móviles, tales como el PDA (Asistentes personales), la terminal portátil de datos (PDT), la terminal móvil de datos (MDT), videoconsola portátil, pocket computer, organizador electrónico, ultra-mobile pc (UMPC), En general se trata dispositivos móviles, el término describe a computadoras tan pequeñas que entran en un bolsillo. Puede usarse como sinónimo de handheld15, y se considera un tipo de computadora móvil. Suelen tener una pantalla y botones pequeños, aunque algunos carecen totalmente de botones y se manejan con pantallas táctiles.

• Las computadoras de mano (hadheid) son pequeñas e igualmente sacrifican poder por tamaño y portabilidad. Parecen pequeñas laptop por su pantalla movible y su teclado. Muchas incluyen la capacidad de red inalámbrica para permitir a los usuarios conectarse al correo electrónico y navegar en Internet. Muchos PDA son handheid.

• Los PDA (Personal Digital Assistant - Asistentes Digitales Personales) son microcomputadoras muy pequeñas, que sacrifican poder por tamaño y portabilidad. Son los llamados ordenadores de la palma de la mano y fueron diseñados originalmente como organizadores personales. Utilizan una pantalla LCD sensible al tacto, por lo general, para la entrada y salida de datos. Algunos modelos inicialmente solo eran empleados como agendas, listas de pendientes, directorios, o cuadernos de notas, sin embargo en la actualidad sus funcionalidades se han visto expandidas debido a la miniaturización de los componentes electrónicos.

• Los pocket PC son una especificación para computadora PDA. que ejecutan alguna versión del sistema operativo Windows CE. Pueden tener la capacidad de ejecutar un sistema operativo alternativo como NetBSD o Linux. Según el propio Microsoft, las Pocket PC son un "dispositivo de mano que permite a los usuarios almacenar y recibir e-mails, contactar personas, ejecutar archivos multimedia, juegos, intercambiar mensajes de texto con MSN, navegar por la web y más".

• Un Smartphone es un teléfono móvil que incorpora características de una computadora personal. Suele permitir al usuario instalar nuevas aplicaciones, aumentando así sus funcionalidades. Esto es posible porque ejecutan un sistema operativo potente de

15 El término handheld (o Handheld Computer, Handheld Device) es un anglicismo que significa en castellano "palmar" y describe a una computadora portátil que se puede llevar en una mano a cualquier parte mientras se utiliza.

M.C. Bertha López Azamar 8

Page 10: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

fondo. Puede incluir un miniteclado, una pantalla táctil, un lápiz óptico, etc. Así mismo este tipo de dispositivo tiende a incluir acceso a Internet, servicios de e-mail, cámara integrada, navegador web, procesador de textos, etc.

NOTA: Investigar aspectos como: año de creación, creador, dimensiones, peso, costo, capacidad de almacenamiento, velocidad, número de usuarios que soporta, usos, clientes usuales, aplicaciones, parques instalados, de cada una de las computadoras de la clasificación.

1.1.3 Tipos de computadorasSegún las señales que procesen, las computadoras serán analógicos o digitales.Comencemos definiendo algunos términos:

Señal, es una variación de una corriente eléctrica u otra magnitud física que se utiliza para representar o transportar información:

Señal Analógica, puede tomar un número infinito de valores. (es una señal continuas)Señal digital, toma un número finito de valores. (Es una señal discreta)

Una señal analógica es generada por algún tipo de fenómeno electromagnético y es representable por una función matemática continua en la que es variable su amplitud y periodo (representando un dato de información) en función del tiempo.

En principio puede tomar cualquier valor, esto es, su nivel en cualquier muestra no está limitado a un conjunto finito de niveles predefinidos como es el caso de las señales cuantificadas. Las señales analógicas reales tienen todas un ruido que se traduce en un intervalo de incertidumbre

En la naturaleza, el conjunto de señales que percibimos son analógicas, así la luz, el sonido, la energía son señales que tienen una variación continua.

Una onda senoidal es una señal analógica de una sola frecuencia.

Los voltajes de la voz y del video son señales analógicas que varían de acuerdo con el sonido o variaciones de la luz que corresponden a la información que se está transmitiendo.

Algunas magnitudes físicas comúnmente portadoras de una señal de este tipo son eléctricas, como por ejemplo la intensidad, la tensión y la potencia, pero también pueden ser hidráulicas, como por ejemplo la presión, térmicas como por ejemplo la temperatura.

La señal eléctrica analógica es aquella en la que los valores de la tensión o voltaje varían constantemente en forma de corriente alterna, incrementando su valor con signo eléctrico positivo (+) durante medio ciclo y disminuyéndolo a continuación con signo eléctrico negativo (–) en el medio ciclo siguiente.

El cambio constante de polaridad de positivo a negativo provoca que se cree un trazado en forma de onda senoidal.

M.C. Bertha López Azamar 9

Page 11: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

La gran desventaja respecto a las señales digitales es el ruido en las señales analógicas: cualquier variación en la información es de difícil recuperación, y esta pérdida afecta en gran medida al correcto funcionamiento y rendimiento del dispositivo analógico.

Un ejemplo de sistema electrónico analógico es el altavoz, que se emplea para amplificar el sonido de forma que éste sea oído por una gran audiencia. Las ondas de sonido que son analógicas en su origen, son capturadas por un micrófono y convertidas en una pequeña variación analógica de tensión denominada señal de audio. Esta tensión varía de manera continua a medida que cambia el volumen y la frecuencia del sonido y se aplica a la entrada de un amplificador lineal. La salida del amplificador, que es la tensión de entrada amplificada, se introduce en el altavoz. Éste convierte, de nuevo, la señal de audio amplificada en ondas sonoras con un volumen mucho mayor que el sonido original captado por el micrófono.

Ahora bien una señal digital es un tipo de señal generada por algún tipo de fenómeno electromagnético, sus dimensiones (tiempo y amplitud) no son continuas sino discretas, lo que significa que la señal necesariamente ha de tomar unos determinados valores fijos predeterminados en momentos también discretos.

El interruptor de la luz sólo puede tomar dos valores o estados: abierto o cerrado, o la misma lámpara: encendida o apagada . Esto no significa que la señal físicamente sea discreta ya que los campos electromagnéticos suelen ser continuos, sino que en general existe una forma de discretizarla unívocamente.

Los sistemas digitales (ejemplo el ordenador) usan lógica de dos estados representados por dos niveles de tensión eléctrica, uno alto y otro bajo,.por abstracción, dichos estados se sustituyen por ceros y unos, lo que facilita la aplicación de la lógica y la aritmética binaria. Si el nivel alto se representa por 1 y el bajo por 0, se habla de lógica positiva y en caso contrario de lógica negativa.

Los sistemas digitales emplean los valores numéricos codificados en binario, en palabras digitales compuestas por ceros y unos; ello proporciona a los sistemas digitales alta fiabilidad y precisión, conseguidas por la perfecta distinción física entre el 0 y el 1, y una gran potencia de cálculo, derivada de la utilización de un sistema de numeración y de la capacidad de integración de funciones booleanas de muy alta complejidad.

Es conveniente aclarar que, a pesar de que en los ejemplos señalados el término digital se ha relacionado siempre con dispositivos binarios, no significa que digital y binario sean términos intercambiables.

Los sistemas digitales proporcionan mayor precisión y fiabilidad que los analógicos, ya que cuentan con un sistema de detección y corrección de errores en la recepción. Así mismo, estas señales se ven menos afectadas por el ruido ambiental. Además, es posible aplicar técnicas de compresión de datos sin pérdidas o técnicas de compresión con pérdidas basados en la codificación perceptual mucho más eficientes que con señales analógicas.

Entre los inconvenientes que presentan las señales digitales se tiene las siguientes:1. Necesita una conversión analógica-digital previa y una decodificación posterior en el

momento de la recepción. 2. Requiere una sincronización precisa entre los tiempos del reloj del transmisor con

respecto a los del receptor.

M.C. Bertha López Azamar 10

Page 12: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

3. Pérdida de calidad cada vez mayor en el muestreo respecto de la señal original.4. La señal digital requiere mayor ancho de banda16 que la señal analógica para ser

transmitida. Un sistema de control basado en un microprocesador (tal como una computadora) no

tiene capacidad alguna para trabajar con señales analógicas, de modo que necesita convertirlas en señales digitales para poder trabajar con ellas.

Por tanto es necesario traducir, o transformar en señales binarias, a esto se le llama proceso de digitalización, conversión analógica-digital (conversión A/D) o también conocida por el acrónimo inglés ADC (Analogue to Digital Converter). o conversión de señales analógicas a digitales.

La digitalización consiste básicamente en realizar de forma periódica medidas de la amplitud (tensión) de una señal analógica (por ejemplo, la que proviene de un micrófono si se trata de registrar sonidos, de un sismógrafo si se trata de registrar vibraciones o de una sonda de un osciloscopio para cualquier nivel variable de tensión de interés), redondear sus valores a un conjunto finito de niveles preestablecidos de tensión (conocidos como niveles de cuantificación) y registrarlos como números enteros en cualquier tipo de memoria o soporte.

En si un conversor analógico-digital (CAD), es un dispositivo electrónico capaz de convertir una entrada analógica de voltaje en un valor binario. Y se utiliza en equipos electrónicos como computadoras, grabadores de sonido y de vídeo, y equipos de telecomunicaciones.

La codificación es el último de los procesos del conversos A/D, y es el proceso de conversión de un sistema de datos de origen a otro sistema de datos de destino. Así que la codificación digital consiste en la traducción de los valores de tensión eléctrica analógicos que ya han sido cuantificados (ponderados) al sistema binario, mediante códigos preestablecidos. La señal analógica va a quedar transformada en un tren de impulsos de señal digital (sucesión de ceros y unos). El códec es el código específico que se utiliza para la codificación/decodificación de los datos.

16 También llamado ancho de banda digital, ancho de banda de red. Es la cantidad de información o de datos que se puede enviar a través de una conexión de red en un período dado. El ancho de banda se indica generalmente en bits por segundo (bps), kilobits por segundo (Kbps), o megabits por segundo (Mbps).1

M.C. Bertha López Azamar 11

Page 13: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

(En si es una abreviatura de Codificador-Decodificador). Un códec describe una especificación desarrollada en software, hardware o una

combinación de ambos, capaz de transformar un archivo con un flujo de datos (stream) o una señal. Los códecs pueden codificar el flujo o la señal (a menudo para la transmisión, el almacenaje o el cifrado) y recuperarlo o descifrarlo del mismo modo para la reproducción o la manipulación en un formato más apropiado para estas operaciones. Los códecs son usados a menudo en videoconferencias y emisiones de medios de comunicación.

En el sentido inverso, existen dispositivos que permiten convertir una entrada digital a una señal analógica, en si se les llama conversor D/A (o simplemente DAC).

Este tipo de conversores se utiliza en reproductores de sonido de todo tipo, dado que actualmente las señales de audio son almacenadas en forma digital (por ejemplo, MP3 y CDs), y para ser escuchadas a través de los altavoces, los datos se deben convertir a una señal analógica. Los conversores digital-analógico también se pueden encontrar en reproductores de CD, reproductores de música digital, tarjetas de sonidos de PC.Ejemplo: La música en el formato digital se almacena en el CD, un sistema óptico de diodos láser

lee los datos digitales del disco cuando éste gira y los transfiere al conversor digital-analógico, luego este transforma los datos digitales en una señal analógica que es la reproducción eléctrica de la música original. Esta señal se amplifica y se envía al altavoz para poder disfrutarla. Cuando la música original se grabó en el CD se utilizó un proceso que esencialmente, era el inverso del descrito aquí, y que utilizaba un conversor analógico-digital.

Habiendo entendido lo que son las señales analógica y digital, se puede hablar ya de la clasificación de las computadoras de acuerdo al principio de operación en: Analógicas y Digitales.

COMPUTADORA ANALÓGICA: manipula las cantidades físicas de formas de onda, (voltaje o corriente). Es un tipo de computadora que utiliza dispositivos electrónicos o mecánicos para modelar el problema que resuelven utilizando un tipo de cantidad física para representar otra.

El uso de las propiedades eléctricas en los computadores analógicos significa que los cálculos son realizados normalmente en tiempo real (o más rápido), a una fracción significativa de la velocidad de la luz, sin los retardos de cálculo relativamente grandes de los computadores digitales.

Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.), pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el hardware).

Algunos ejemplos de computadores analógicos son:• Predictores de marea

M.C. Bertha López Azamar 12

Page 14: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

• Computador de datos del objetivo para submarinos.• El mecanismo de Antiquitera (es una calculadora mecánica antigua diseñada para el

cálculo de la posición del Sol, la luna, y algunos planetas, permitiendo predecir eclipses )

• La regla de cálculo (es un instrumento de cálculo que dispone de varias escalas numéricas, para facilitar la rápida y cómoda realización de operaciones aritméticas complejas)

• El astrolabio (es un antiguo instrumento que permite determinar la posición de las estrellas sobre la bóveda celeste)

• Un termostato (es el componente de un sistema de control simple que abre o cierra un circuito eléctrico en función de la temperatura)

COMPUTADORA DIGITAL17: usa niveles de voltaje eléctrico discretos para representar códigos para los símbolos. La manipulación de estos símbolos su método de operación. Los los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito18 que es usada después para modelar el problema a resolver.

Están basadas en dispositivos biestables que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas sin tener que la necesidad de modificar físicamente la máquina.

En general, los computadores analógicos ideales operan con números reales y son diferenciales, mientras que los computadores digitales se limitan a números computables y son algebraicos. Esto significa que los computadores analógicos tienen una tasa de dimensión de la información o potencial de dominio informático más grande que los computadores digitales. Esto, en teoría, permite a los computadores analógicos resolver problemas que son indescifrables con computadores digitales.

Los computadores analógicos son extraordinariamente rápidos, puesto que pueden solucionar las más complejas ecuaciones (ya que una señal atraviesa el circuito generalmente en una fracción apreciable de la velocidad de la luz). Por otro lado, la precisión de computadores analógicos no es buena; se limitan a tres, o a lo más, cuatro dígitos de precisión.

Los computadores digitales pueden ser construidos para llevar la solución de ecuaciones a una casi ilimitada precisión, pero de una manera sumamente lenta comparado a los computadores analógicos. Generalmente, las ecuaciones complejas son aproximadas usando métodos numéricos iterativos que toman grandes números de iteraciones, dependiendo de cuan buena es la "conjetura inicial" con respecto al valor final y a cuánta precisión se desea. Esta conjetura inicial es conocida como la semilla numérica para el proceso iterativo. Para muchas operaciones en tiempo real, la velocidad de tales cálculos digitales es demasiado lenta para ser de

17 También nombrado por los teóricos de la informática con el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los computadores analógicos.

18 Modelo matemático que realiza cómputos en forma automática sobre una entrada para producir una salida. Está conformado por un alfabeto, un conjunto de estados y un conjunto de transiciones entre dichos estados. Su funcionamiento se basa en una función de transición, que recibe a partir de un estado inicial una cadena de caracteres pertenecientes al alfabeto (la entrada), y que va leyendo dicha cadena a medida que el autómata se desplaza de un estado a otro, para finalmente detenerse en un estado final o de aceptación, que representa la salida.

M.C. Bertha López Azamar 13

Page 15: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

mucho uso (ej, para radares de phased array de muy alta frecuencia o para cálculos del tiempo), sin embargo, la precisión de una computadora analógica es escasa.

Existe un grupo intermedio de computadoras, las híbridas, en el cual una computadora digital es combinada con una computadora analógica, exhibiendo características de ambos. El componente digital normalmente sirve como el controlador y proporciona operaciones lógicas, mientras que el componente análogo sirve normalmente como solucionador de ecuaciones diferenciales.

Aquí la computadora digital se usa para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones.

Los computadores híbridos son usados para obtener un muy exacto pero no completamente exacto valor de 'semilla', usando un computador analógico como la parte frontal (front-end), que es entonces alimentado dentro de un proceso iterativo del computador digital para alcanzar el grado final de precisión deseado. Con una semilla numérica altamente exacta de tres o cuatro dígitos, es reducido dramáticamente el tiempo total de cómputo digital necesario para alcanzar la precisión deseada, puesto que son requeridas muchas menos iteraciones, o, por ejemplo, el computador analógico puede ser usado para solucionar un problema no analítico de la ecuación diferencial, para el uso en una determinada etapa de un cómputo (donde la precisión no es muy importante).

En todo caso, el computador híbrido generalmente es substancialmente más rápido que un computador digital, pero puede suministrar un cómputo mucho más exacto que un computador analógico. Es útil para aplicaciones en tiempo real que requieren dicha combinación, por ejemplo, un radar phased arrat de alta frecuencia o un cómputo de sistema de tiempo.

Los computadores híbridos deben ser distinguidos de los sistemas híbridos. Este último puede ser no más que un computador digital equipado con un convertidor analógico-digital en la entrada y/o un convertidor digital-analógico en la salida, con el propósito de convertir las señales analógicas para el procesamiento digital ordinario y viceversa, por ejemplo, para manejar sistemas de control físicos, tales como servomecanismos19.

Observe en la imagen la computadora híbrida polaca, de nombre WAT 1001

19 Es un sistema formado de partes mecánicas y electrónicas que en ocasiones son usadas en robots, con parte móvil o fija. Puede estar formado también de partes neumáticas, hidráulicas y controlado con precisión. Ejemplos: brazo robot, mecanismo de frenos automotor, etc.

M.C. Bertha López Azamar 14

Page 16: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.2 Historia de la computaciónHistóricamente el hombre fue creando dispositivos de cálculo que le permitieran hacer

más rápido las labores que realizaba. La primera máquina para computar fue el ábaco y surge aproximadamente en el año 3,000 A.C., de ahí fueron surgiendo diferentes aparatos. Todas las computadoras fabricadas hasta antes de 1941 se conocen de manera grupal como computadoras mecánicas. Y la computación como actualmente la conocemos se inicia a mediados del siglo XX, precisamente en la década de los 40, con la aparición de las primeras computadoras sin partes mecánicas y totalmente eléctricas, y se diferencian 6 generaciones.

1.2.1 La era mecánicaLos primeros procesos mecánicos para la realización de cálculos datan del año 30,000

A.C. con la utilización de rayas en huesos o palos, proceso que fue mejorado hasta el año 3,000 A.C. con la creación del ábaco. Sin embargo, hasta el siglo 17 se tiene registro sobre la creación de máquinas para resolver problemas matemáticos, donde matemáticos como Wilhelm Schickard, Blaise Pascal y Gottfried Leibnitz diseñaban e implementaban calculadoras capaces de realizar las cuatro funciones elementales.

En 1617, el matemático escocés John Napier, famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos", en los que estaban plasmados los dígitos, el sistema fue llamado "Napier Bones" (Huesos de Napier).

El alemán Wilhelm Schickard, en 1623 diseñó la primera calculadora mecánica, llamada “El reloj calculador”, el cual se encargaba de sumar y restar. Incorporó los logaritmos de Napier, hacia rodar cilindros en un albergue grande. El modelo fue destruido en un incendio, pero aun así fue considerado como la primera calculadora mecánica.

El matemático inglés William Oughtred invento en 1624 la primera regla deslizante (llamada "Círculos de Proporción"), una regla de cálculo, la cual era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica.

Entre 1640 y 1645, Blaise Pascal invento la Pascalina. la cual es considerada una de las primeras calculadoras mecánicas para hacer sumas y restas, ya que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9, así los datos se representaban mediante las posiciones de los engranajes, ya que las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.

Se desarrolló la máquina originalmente para simplificar al padre de Pascal para la recolección del impuesto.

M.C. Bertha López Azamar 15

Page 17: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

En 1673 el matemático alemán Gottfried Leibniz intentando perfeccionar la pascalina inventa el Calculador Gradual, considerada la primera calculadora de propósito general. El aparato operaba usando un cilíndrico de dientes, y era capaz de sumar y restar, así como dividir y multiplicar. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad. Leibniz también describió el sistema de numeración binario, un ingrediente central de todas las computadoras modernas.

El aritmómetro (Arithmometer en inglés) o calculadora mecánica fue la evolución de la máquina calculadora construida, por Leibniz en el año 1694. Era capaz de realizar las cuatro operaciones básicas (sumar, restar, multiplicar y dividir) de manera sencilla y sobre todo sin errores con resultados de hasta 12 cifras. Es recordada por ser la primera calculadora comercial construida con verdadero éxito: fueron vendidos más de 1500 ejemplares (muchos para esa época) hasta casi 1930.

A comienzos de 1822, Charles Babbage completó su “Maquina de la diferencia”, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. Dicho artefacto era un ensamble complejo de ruedas, engranajes, y remaches.

En 1834 comenzó el diseñó su " Maquina Analítica", el cual fue probablemente el primer dispositivo de cómputo de propósito general20, era capaz de ejecutar cualquier tipo de calculo matemático, sin embargo nunca fue completado por Babbage, pero que su hijo, Henry Prevost Babbage, continuó de manera intermitente de 1880 a 1910.

Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de computaciones que ahora se consideran al corazón de informática. Charles Babbage era un hombre que estaba adelantado a su época, y aunque nunca construyó su artefacto analítico, su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. Muchos historiadores piensa que la mayor razón por la cual nunca pudo completar estos proyectos fue el hecho de que la tecnología del momento no era lo suficientemente confiable. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el verdadero "Padre de las Computadoras Modernas".

Cabe destacar la participación de Lady Ada Augusta Byron condesa de Lovelace, amiga de Charles Babbage, que impresionada por el invento comenzó a estudiar y comprender el funcionamiento de la máquina analítica, enunciando procedimientos básicos para resolver problemas como por ejemplo la resolución de ecuaciones diferenciales y trascendentales, lo que la transforma en la primer programadora que existió.

Una máquina probablemente inspirada por el diseño de Babbage fue la creada por George Scheutz, quien después de estudiar el trabajo de Babbage sobre la Máquina

20 Esto significa que puede realizar más de una tarea predefinida.

M.C. Bertha López Azamar 16

Page 18: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

diferencial comenzó a trabajar en 1833 junto con su hijo Edvard Scheutz en una versión reducida. El producto de este esfuerzo se materializó en 1853 con la construcción de una máquina que podía procesar números de 15 dígitos y calcular diferencias de cuarto nivel. Esta máquina ganó una medalla de oro en la Exhibición de París en 1855, y luego fue vendida al observatorio Dudley en Albany, Nueva York, donde fue utilizado para calcular la órbita de Marte.

En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense, y desarrolló en 1986 un sistema de cómputo mediante tarjetas perforadas, llamada Máquina tabuladora o censadora, en las tarjetas los agujeros representaban el sexo, la edad, raza, entre otros, y podían se contestadas con opciones binarias (si o no), el objetivo era reducir mecanizar la tabulación manual. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. Desde hace más de un siglo

Hollerith es conocido como el creador del primer prototipo de computadora moderna y como el “padre de la informática”, ya que fue el primer hombre que logró llevar a cabo el tratamiento automático de la información.

Por los años 1900, las primeras calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, entre otras fueron rediseñadas para usar motores eléctricos. Desde los años 1930, compañías como Friden, Marchant Calculator y Monroe hicieron calculadoras mecánicas de escritorio que podían sumar, restar, multiplicar y dividir. La palabra "computador" era un título de trabajo asignado a la gente que usaba estas calculadoras para realizar cálculos matemáticos.

En 1948, fue introducido el Curta, un invento creado por Curt Herzstark mientras era un prisionero en el campo de concentración de Buchenwald. Era una calculadora mecánica pequeña y portable, que tenía el tamaño aproximado de una amoladora de pimienta. Con el tiempo, durante los años 1950 y los años 1960 aparecieron en el mercado una variedad de diferentes marcas de calculadoras mecánicas. Su diseño era brillantemente compacto, tenía una manivela para ser operada, era un pequeño cilindro que cabía en la palma de la mano, y podía ser usada para realizar operaciones de suma, resta, multiplicación, división, y con más dificultad, raíces cuadradas y otras operaciones. El diseño de Curta fue una variante del aritmómetro de Gottfried Leibniz, acumulando valores en ruedas dentadas, que eran sumados o complementados por un mecanismo de tambor de paso (Stepped Reckoner).

Ahora bien, no se puede omitir el invento de las tarjetas perforadas, ya que fue fundamental en las primeras computadoras, ya que fueron los primeros medios utilizados para

ingresar información e instrucciones a un computador en los años 1960 y 1970.

Sin embargo, fueron usadas por primera vez alrededor de 1725 por Basile Bouchon y Jean Baptiste Falcon como una forma más robusta de los rollos de papel perforado usado en ese entonces para controlar telares textiles en Francia. Esta técnica fue enormemente mejorada por Jaseph Marie Jacquard en su telar de Jacquard en 1801, a quien se le da el honor del concepto de tarjetas como se conoce hoy en día.

M.C. Bertha López Azamar 17

Page 19: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Charles Babbage lanzó la idea del uso de las tarjetas perforadas como un modo de controlar una calculadora mecánica que él mismo diseñó. Herman Hollerith desarrolló la tecnología de procesamiento de tarjetas perforadas de datos para el censo de 1890 en Estados Unidos y fundó la compañía Tabulating Machine Company (1896) la cual fue una de las tres compañías que se unieron para formar la Computing Tabulating Recording Corporation (CTR), luego renombrada IBM, la cual manufacturó y comercializó una variedad de unidades máquinas de registro para crear, ordenar, y tabular tarjetas perforadas. Desde 1900 hasta 1950, las tarjetas perforadas fueron el primer medio para el ingreso y almacenamiento de datos, y el procesamiento en computación institucional y según los archivos de IBM. En si la tarjeta perforada es una cartulina con unas determinaciones al estar perforadas, lo que supone un código binario.

1.2.2 La era electromecánicaLa era de la computadora moderna comenzó con un explosivo desarrollo antes y durante

de la Segunda Guerra Mundial, a medida que los circuitos electrónicos, los relés, los condensadores, y los tubos de vacío reemplazaron a los equivalentes mecánicos, así como los cálculos digitales reemplazaron a los cálculos analógicos.

En varios países avanzados, los centros de estudios fueron madurando ideas para la construcción de máquinas que permitieran realizar cálculos repetitivos, sobre todo en el campo bélico. Y aun cuando no está muy definido el evento que dio fin a la era mecánica, este pudo tener lugar entre 1937 y 1949; se mencionan referentes a que se dio en 1937 con la concepción de la Atanasoff Berry Computer el cual fue el primer ingenio totalmente electrónico especializado en cálculo, o en 1946 con la terminación de la construcción de la ENIAC considerada la primera computadora totalmente electrónica, o con la creación de la EDSAC mencionaa como la primera computadora para almacenamiento de programas.

Lo que si se define es que la era se encuentra divida en generaciones. Las primeras cuatro están basadas en la

tecnología con que fueron construidas o sobre la que operan. Cada generación hasta la cuarta se representas por la utilización de un elemento tecnológico determinado, iniciando con la utilización de tubos de vacío (primera generación), el transistor (segunda generación), los circuitos integrados (tercera generación), y el Microprocesador (cuarta generación) dan paso a la miniaturización tanto de componentes como de equipos.

A partir de la quinta generación ya no hay diferencia en la tecnología que se utiliza en la creación de las máquinas, sino en la implementación de las mismas.

En la quinta generación comienzan a crearse esquemas de funcionamiento en paralelo, computadoras con múltiples procesadores trabajando simultáneamente en la misma tarea.

En la sexta generación, junto con el crecimiento de las redes, el procesamiento en paralelo se extiende a niveles masivos en los cuales una cantidad infinita de computadoras pueden colaborar en la misma tarea .

M.C. Bertha López Azamar 18

Page 20: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

A continuación se da una breve explicación de los elementos tecnológicos que definieron la historia de las computadoras:

Tubos de vacío (válvula de vacío o válvula termoiónica, o válvula electrónica), es un componente electrónico utilizado para amplificar, conmutar, o modificar una señal eléctrica mediante el control del movimiento de los electrones en un espacio "vacío" a muy baja presión, o en presencia de gases especialmente seleccionados. La válvula originaria fue el componente crítico que posibilitó el desarrollo de la electrónica durante la primera mitad del siglo XX, incluyendo la expansión y comercialización de la radiodifusión, televisión, radar, audio, redes telefónicas, computadoras analógicas y digitales, control industrial, etc.

Entre los tubos de vacío y el transistor, surge el relé o relevador, el cual es un dispositivo electromecánico que funciona como un interruptor controlado por un circuito eléctrico, en el que, por medio de una bobina y un electroimán se acciona un juego de uno o varios contactos que permiten abrir o cerrar otros circuitos eléctricos independientes. Dado que el relé es capaz de controlar un circuito de salida de mayor potencia que el de entrada, puede considerarse, en un amplio sentido, como un amplificador eléctrico.

Se emplearon en telegrafía, haciendo la función de repetidores que generaban una nueva señal con corriente procedente de pilas locales a partir de la señal débil recibida por la línea.

Transistor, es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Actualmente se encuentran prácticamente en todos los aparatos domésticos de uso diario: radios, televisores, grabadoras, reproductores de audio y video, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, teléfonos celulares, etc.

Circuito integrado (CI), también conocido como chip o microchip, es una pastilla pequeña de material semiconductor21, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía22 y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer

conexión entre la pastilla y un circuito impreso. Los circuitos integrados se encuentran en todos los aparatos electrónicos modernos, como automóviles, televisores, reproductores de CD, reproductores de MP3, teléfonos móviles, computadoras, etc.

Microprocesador (o simplemente procesador), es un circuito integrado constituido por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador, es en sí el circuito integrado central y más complejo de un sistema informático. Está compuesto 21 es un elemento que se comporta como un conductor o como aislante dependiendo de diversos factores22 El proceso consiste en transferir un patrón desde una fotomáscara (denominada retícula) a la superficie de una

oblea. El silicio, en forma cristalina, se procesa en la industria en forma de obleas.

M.C. Bertha López Azamar 19

Page 21: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

básicamente por: varios registros, una unidad de control, una unidad aritmético lógica, y dependiendo del procesador, puede contener una unidad de coma flotante.

Antes de comenzara hablar de las generaciones de las computadoras es relevante mencionar dos contribuciones importantes para el desarrollo de las computadoras, tal y como las conocemos hoy en día.

La primera es una de las contribuciones más importante de Alan Turing al área de las Ciencias Computacionales y se dio en 1936, la teoría de una "máquina de calcular universal" (conocida hoy día como la "máquina de Turing"), que es un formalismo matemático utilizado ampliamente en el estudio de funciones computacionales. Implica el concepto de una computadora que almacenaba en una cinta el programa y los datos con los que trabaja. Turing demostró que la máquina era capaz de resolver cualquier problema matemático que pueda escribirse en un algoritmo.

Durante los años '40, Turing y otros como Konrad Zuse, desarrollaron la idea de usar la propia memoria de la computadora para almacenar el programa y los datos, pero se considera al matemático húngaro John Von Neumann como el que definió la arquitectura de las computadoras, la que se mantiene en uso en la mayoría de las máquinas de hoy.

Von Neumann propone el concepto de programa almacenado. La idea fundamental fue permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje y no por medio de alambres que eléctricamente interconectaban varias secciones de control.

Las computadoras con esta arquitectura constan de cinco partes: La unidad aritmético-lógica o ALU, la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio de transporte de los datos entre las distintas partes. Observe a la derecha el diagrama de la arquitectura de Von Neumann:

Los primeros computadores constaban de programas almacenados, aunque no estaban lo suficiente programados cuando fueron diseñados. La tarea de reprogramar, cuando era posible, era un proceso laborioso, empezando con notas en papel y siguiendo con detallados diseños de ingeniería, y tras esto llegaba el complicado proceso de reescritura y reestructuramiento físico del computador. El concepto de programa almacenado cambió por completo, se pensó en un computador que en su diseño contenía un conjunto de instrucciones que podían ser almacenadas en memoria, o sea, un programa que detallaba la computación del mismo.

La mayoría de computadoras modernas están basadas en esta arquitectura, aunque pueden incluir otros dispositivos adicionales (por ejemplo, para gestionar las interrupciones de dispositivos externos como ratón, teclado, etc.).

M.C. Bertha López Azamar 20

Page 22: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.2.3 Las generaciones de computadorasPrimera generación

Las computadoras de la primera generación se caracterizan por la utilización de tubos de vacío, también conocidos como bulbos, para procesar información. Por eso las máquinas eran monstruosas, ocupando un cuarto entero más los adicionales para refrigerar el clima interior de esos cuartos. Cada una de las máquinas fue construida mediante un diseño propio, por lo tanto no era posible realizar programas que sirvan para más de una máquina. Todavía no existían los lenguajes de programación, sino que las instrucciones se ejecutaban en forma directa, una tarjeta equivalía a una orden y hasta que esta orden no se ejecutaba no se pasaba a la siguiente tarjeta, las memorias eran de muy reducida capacidad.

Dependiendo del historiador, algunos consideran el comienzo de esta primera generación de computadoras en 1937 con el inicio del diseño de la Atanasoff Berry Computer (ABC); otros 1941, con la creación de la Colossus, 1946 con la puesta en marcha de la ENIAC, mientras que otros la ubican en 1949 con la introducción de la EDSAC.

La disputa se origina con los siguientes hechos;• la ABC y la ENIAC básicamente eran calculadoras programables, sin llegar a

ser una máquina de Von Neumann.• la EDSAC ya contaba con memoria para almacenar programas, • la Colossus fue un secreto de guerra hasta 1999.

Cabe aclarar que la ABC era una calculadora para tareas específicas, razón por la cual usualmente no es mencionada como inicio de la historia de las computadoras electrónicas, sin embargo, por inverosímil que parezca, existe un dictamen jurídico que afirma que la ABC es la primera computadora de tubos de vacío de la historia.

Independientemente de ello y sin entrar en detalle oficiales, se observaran los dispositivos creados cronológicamente.

Luego de terminada la II guerra mundial, se descubrió entre los restos de la Alemania destruida lo que fue una computadora denominada Z3, diseñada por el ingeniero alemán Konrad Zuze. Sin embargo, desde 1930, Konrad Zuze crea la computadora Z1, que se termino de construir en 1938, la cual es considerada en la actualidad una de las primeras maquinas programables del mundo. Es considerada la primera computadora de propósito general. Aunque la Z1 original fue destruida en 1943 durante un bombardeo aliado de Berlín, Zuse decidió reconstruirla en 1986 acabándola en 1989. En si Zuse construye varias máquinas: la Z1, la Z2, la Z3, y la Z4.

La Z1 tiene todas las partes de una computadora moderna: unidad de control, memoria, lógica en coma flotante, etc., a pesar de ser una máquina completamente mecánica. Realizaba una multiplicación en 5 segundos aproximadamente, tenía un teclado decimal para insertar las operaciones, una memoria de 64 celdas de 22 bit, y pesaba unos 500 kilogramos.

La Z2 surgió al ver la dificultades de una máquina mecánica, por eso rediseñó la Z1 añadiéndole relés telefónicos. Así, la unidad numérica de la Z2 tenía 800 relés, aunque todavía

M.C. Bertha López Azamar 21

Page 23: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

mantenía componentes mecánicos. La Z2 fue finalizada en 1939, y al acabar Zuse ya estaba pensando en la siguiente computadora la Z3 para que fuera completamente realizada con relés telefónicos. Estaba construido con 2300 relés y los cálculos eran realizados con aritmética en coma flotante puramente binaria.

La Z3 era la "primera computadora funcional del mundo controlada por programas", otras máquinas equiparables a la Z3 fueron la Mark II, o la ENIAC que fueron presentadas en 1943 o años posteriores, mientras que la Z3 fue presentada en 1941.

La Z4 fue terminada en 1944, aunque en años posteriores fue retocada añadiéndole una unidad de lectura de tarjetas perforadas. La Z4 fue utilizada por numerosas instituciones hasta

1959. La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados cálculos científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba compuesta aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por segundo y tenía una memoria de 500 palabras de 32 bit. Pesaba unos 1000 kilogramos. La entrada de datos era o a través de un teclado decimal o a través de tarjetas perforadas, y la salida era por una máquina de escribir.

En 1967 la compañía Zuse KG había construido un total de 251 computadoras. En 1998 Raúl Rojas demostró que el Z3 es Turing completo.

En el invierno de 1937 se origina un dispositivo completamente electrónico para la realización de cálculos, cuando John Vincent Atanasoff concibe el principio de un computador electrónico digital, pero es hasta 1941 que junto con un estudiante graduado llamado Clifford Berry, tuvieron éxito en la construcción de una máquina que podía resolver 29 ecuaciones simultáneas con 29 variables. Sin embargo esta máquina no era programable y se trataba más bien de una calculadora electrónica. Esta se conoció bajo el nombre de ABC, la Atanasoff Berry Computer. El ABC Computer era electrónico y binario (digital), pero no programable., en si se considera una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas.

En 1944 se crea la Colossus, la cual fue un dispositivo británico de cálculo totalmente electrónico, fue creada por un grupo de personas lideradas por el matemático inglés Maxwell Newman y el ingeniero Thomas Flowers; pero muchos otros jugaron un papel importante entre ellos Alan Turing y C.E. Wynn-Williams. Estas máquinas fueron los primeros dispositivos calculadores electrónicos, y aun cuando fueron un dispositivo programable orientado a un único propósito, son consideradas unos de los primeros computadores digitales, y los británicos las usaron para leer las comunicaciones cifradas alemanas durante la Segunda Guerra Mundial, razón por la que mantuvo en secreto durante muchos años.

La primera Colossus se puso en funcionamiento en 1943, se basaba en la idea de universalidad de la máquina de Turing, estaba compuesta por más de 1500 tubos de vacío, la entrada de datos era por medio de tarjetas perforadas y los resultados se almacenaban en relés temporalmente hasta que se les daba salida a través de una máquina de escribir. Era totalmente automática, medía 2.25 metros de alto, 3 metros de largo y 1.20 metros de ancho. La Colossus

M.C. Bertha López Azamar 22

Page 24: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

usaba tubos de vacío y aunque se sabía que las máquinas con muchos tubos de vacío eran propensas a altas tasas de averías, también se reconocía que las averías de las válvulas solían ocurrir al encender la máquina, de tal forma que las máquinas Colossus, una vez encendidas, nunca se apagaban a no ser que comenzara a funcionar de forma incorrecta.

La Colossus Mark 1 tuvo éxito en su primera prueba con un mensaje real cifrado en enero de 1944. Fue seguido de nueve máquinas, la primera de ellas, Colossus Mark 2, se instaló en junio de 1944 mientras que la Mark I original fue convertida a Mark 2. La máquina Colossus

número once se terminó justo al final de la guerra.La Colossus Mark 2, con 2.400 tubos de vacio, era

5 veces más rápida y más fácil de operar que la Mark I: ambas características aumentaron considerablemente el proceso de decodificación. En comparación, otras computadoras como la ENIAC de 1946 usaba 17.468 válvulas y la Manchester Mark I de 1949 usó alrededor de 4.200.

Colossus fue la primera de las máquinas digitales en incorporar una limitada programabilidad. No obstante no era una computadora de propósito general, no siendo Turing completa, aunque las Colossus se basaban en la definición de Alan Turing, sin embargo en aquella época no era tan importante que las máquinas fuesen Turing completas. El proyecto siempre fue ultra-secreto, ni siquiera los propios creadores pudieron ver todas las partes de la máquina. Nunca hubo manuales ni registros sobre su funcionamiento, e incluso su montaje se efectuó por etapas, usando personal distinto para que nadie conociera los detalles de la máquina al completo. La existencia de la Colossus fue mantenida en secreto hasta mucho después del término de la guerra, y el crédito para Turing y sus colegas por diseñar una de las primeras computadoras electrónicas fue recorriendo su camino.

En 1944, la compañía IBM (que originalmente creo Hollerigh) crea el IBM Automatic Sequence Controlled Calculator (ASCC), más conocido como Harvard Mark I o Mark I, fue el primer ordenador electromecánico, construido en la Universidad de Harvard por Howard H. Aiken, con la subvención de IBM. Se utilizo para balística calculando tablas de proyectiles. Estaba construida en base a relés, interruptores, codificadores rotativos, alrededor de 800 kilómetros de cables y más de 3 millones de conexiones. Se basaba en la máquina analítica de Charles Babbage. Medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, pesaba aproximadamente unas cinco toneladas (unos 31500 kg). Esta computadora empleaba señales electromagnéticas para mover las partes mecánicas, era una máquina lenta (tomaba de 3 a 5 segundos por cálculo) e inflexible (la secuencia de cálculos no se podía cambiar); pero ejecutaba operaciones matemáticas básicas y cálculos complejos de ecuaciones sobre el movimiento parabólico de proyectiles. Funcionaba con relés, se programaba con interruptores y leía los datos de cintas de papel perforado. A pesar de que era una computadora más lenta en comparación con las coexistentes con ella (como la ENIAC), se usó hasta 1959, año en el que se la desmanteló, dejando partes en la universidad de Harvard y partes en el Instituto SmithSonian en Washington (EE.UU).

M.C. Bertha López Azamar 23

Page 25: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Entre 1943 y 1946 en la Universidad de Pennsylvania, John Presper Eckert y John William Mauchly construyen la primera computadora electrónica programable23 de propósito general, llamada ENIAC (Electronic Numerical Integrator and Computer - Computadora Electrónica e Integrador Numérico), utilizada por el Laboratorio de Investigación Balística del

Ejército de los Estados Unidos. El primer problema resuelto por la ENIAC fue una simulación numérica en el diseño de la bomba de hidrógeno y requirió de 20 segundos, contra las 40 horas utilizando calculadoras mecánicas. La ENIAC permitía realizar cerca de 5000 sumas y 300 multiplicaciones por segundo. Operaba con un total de 17.468 válvulas electrónicas o tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras; pesaba 27 toneladas, medía 2,4 m x 0,9 m x 30 m (ocupaba una superficie de aproximadamente 300 m²);

elevaba la temperatura del local a 50 °C; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, demoraba semanas de instalación manual, ya que para efectuar las diferentes operaciones era preciso cambiar, conectar y reconectar los cables. Y cada vez que se ponía a funcionar quemaba unas 50 en promedio, el 90% del tiempo de mantenimiento se utilizaba en buscar y cambiar estás válvulas averiadas. Observe la imagen donde se reprograma.

Uno de los mitos que rodea a este aparato es que la ciudad de Filadelfia, donde se encontraba instalada, sufría de apagones cuando la ENIAC entraba en funcionamiento, pues su consumo era de 160 kW. A las 23.45 del 2 de octubre de 1955, la ENIAC fue desactivada para siempre. Durante la construcción de esta primera máquina, se sentaron las bases de construcción de un proyecto más avanzado denominado EDVAC.

IBM mejora su máquina ASCC (Mark I) al promover la creación de la SSEC (IBM's Selective Sequence Electronic Calculator – Calculadora electrónica de secuencia selectiva).

Construida en la planta de IBM, Endicott, bajo la dirección del Profesor de la Universidad de Columbia, Wallace Eckert y su personal del Laboratorio Watson de Computación Científica entre1946 y 1947. La maquina es trasladada a la nueva sede de IBM en Manhattan, donde se ocupó una sala de 60 metros de largo y 30 pies de ancho (han estimado que las dimensiones de dan cerca de la mitad de un campo de fútbol). La SSEC es un híbrido inusual de los tubos de vacío y relés electromecánicos. Aproximadamente 12.500 tubos de vacío se utiliza en la unidad aritmética, el control, y sus ocho (relativamente alta velocidad) registros, que tenía un tiempo de acceso de menos de un milisegundo.

Alrededor de 21.400 relés se utilizan para el control y 150 registros de velocidad más lenta, con un tiempo de acceso de 20 milisegundos. La tecnología de reles fue similar a la ASCC, basado en la tecnología inventada por Clair D. Lake (1888-1958). La unidad aritmética y lógica de la SSEC era una versión modificada de IBM 603 multiplicador de electrónica, que había sido diseñado por James W. Bryce. [13] Los tubos eran voluminosos excedentes de la tecnología militar de radar, que llenó toda una pared. La memoria se organiza de la firma de números decimales de 19 dígitos. La multiplicación se calcula con 14 dígitos en cada factor (En promedio, se realizaba 14-23 sin llegar a cubrir las características del modelo Von Neumann.

M.C. Bertha López Azamar 24

Page 26: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

por-14 decimal multiplicaciones en una quincuagésima parte de una segundo). Una división se realizaba en una trigésima parte de un segundo, y la adición o sustracción de nueve dígitos en treinta y cinco centésimas de segundo. Se podría operar indefinidamente bajo el control de su programa modificable.

Durante más de cuatro años, la SSEC cumplido el deseo de Thomas J. Watson (presidente de IBM) había expresado en su dedicatoria: que sería servir a la humanidad por la solución de los problemas importantes de la ciencia. Le permitió a Wallace Eckert (astrónomo) publicar efemérides lunares de mayor precisión que las previamente disponibles, que fueron la fuente de los datos utilizados en el primer aterrizaje del hombre en la luna. Para cada posición de la luna, las operaciones necesarias para el cálculo y comprobación de los resultados ascendió a 11.000 sumas y restas, multiplicaciones 9.000 y 2.000 de mesa look-ups.

La SSEC se clasifica generalmente como la última de las máquinas calculadoras "programables" en lugar de la primera computadora con programa almacenado. Utilizándola bien, los cálculos de la SSEC eran exactos y precisos para su época, pero un programador temprano, John Backus, dijo que "había que estar allí todo el tiempo cuando el programa se estaba ejecutando, ya que se paraba cada tres minutos, y sólo las personas que lo habían programado podían ver cómo ponerlo en marcha otra vez ". El codiseñador de la ENIAC J. Presper Eckert (sin relación con el Eckert IBM) dijo "es una monstruosidad grande, y no creo que haya nunca trabajado bien".

Por su parte en Inglaterra entre 1947 y 1948, Frederic C. Williams, Tom Kilburn y Geoff Tootill construyen en la Universalidad de Manchester, la SSEM (Máquina Experimental de Pequeña Escala de Manchester - Manchester Small-Scale Experimental Machine), apodada Baby, la cual fue el primer computador del mundo con programa almacenado en la misma maquina. Fue construida como banco de prueba de los tubos Williams, uno de los primeros tipos de memorias de computadora, no como un computador práctico.

Su exitoso resultado motivó el desarrollo de la computadora Manchester Mark I, la que en su momento permitió el desarrollo del Ferranti Mark I, el primer computador comercialmente disponible de propósito general.

En la Universidad de Cambridge por su parte, de 1946 a 1949 crearon la EDSAC (Electronic Delay Storage Automatic Calculator - Almacenamiento de Retraso Electrónico la Calculadora Automática ), fue construida por Maurice Wilkes y su equipo. La máquina, inspirada en el curso de verano dictado por John William Mauchly y J. Presper Eckert, en el cual mostraron su trabajo realizado en la construcción de ENIAC. La EDSAC fue el primer calculador electrónico en el mundo, en contar con órdenes internas,

(aunque no la primera computadora con programas internos ya que el honor le corresponde a la SSEM). Para programar la EDSAC, Wilkes definió una librería de pequeños programas llamados subrutinas, almacenadas en cintas de papel perforado.

La EDSAC tenía 3,000 válvulas del vacío colocadas en 12 gabinetes. La máquina contaba con pantallas de tubo de rayos catódicos para mostrar las operaciones electrónicas del hardware para propósitos de diagnóstico, así como tanques para las líneas de retraso de mercurio

M.C. Bertha López Azamar 25

Page 27: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

para el almacenamiento principal (512 palabras de 36 bits) y una tasa de transferencia de medio megaciclo por segundo. La entrada y salida utilizaban cinta de papel. Podía llevar a cabo 650 instrucciones por segundo (comparó hoy día con muchos millones). Un programa se alimentaba en la máquina vía una sucesión de agujeros picados en una cinta del papel. La máquina ocupaba un cuarto que medía 5 metros por 4 metros. La EDSAC se usó principalmente como una herramienta para matemáticos. En si el primer programa exitoso que corrió fue una tabla de cuadrados. El primer videojuego de la historia, OXO fue desarrollado para funcionar en esta computadora.

En la Universalidad de Manchester, continuaron el trabajo realizado con la SSEM y crearon la Manchester Mark 1. Su diseño se pensó para demostrar el potencial que tendrían los programas almacenados en la computadora, por eso se considera la primera computadora que funcionaba con memoria RAM. Los trabajos comenzaron en agosto de 1948, y la primera versión entró en funcionamiento en abril de 1949, cuando un programa escrito para buscar números primos de Mersenne corrió durante nueve horas sin fallas en la noche del 16 al 17 de junio de 1949. El matemático Alan Turing se incorporó al proyecto en el año 1948, realizando un lenguaje de programación para la computadora. Algunas de sus características fueron: una memoria principal (RAM) de 256 palabras de 40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en tubos de vacío; una memoria que almacenaba 3750 palabras; realizaba una operación estándar, como una suma, en 1.8 milisegundos y en cambio para realizar una multiplicación era mucho más lento, añadiéndole al tiempo de una operación estándar 0.6 milisegundos por cada bit que tuviera el multiplicador. La entrada era por medio de un sencillo teclado para almacenar directamente la información al computador; la salida para las comprobaciones era a través de un visualizador de tubos de rayos catódicos.

En abril de 1946, el laboratorio de investigación de balística de Estados Unidos de la universidad de Pensilvania, contrato a los diseñadores de la ENIAC, J. Presper Eckert y John

William Mauchly a los cuales se les unió el gran matemático John von Neumann. para construir la EDVAC (Electronic Discrete Variable Automatic Computer - Calculador Discreto Electrónico Automático Variable), la cual fue entregada al laboratorio militar en agosto de 1949 y comenzó a operar hasta 1951 Su construcción fue paralela a la construcción de la EDSAC de inglaterra, A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de

arquitectura para la mayoría de las computadoras modernas. El diseño de la EDVAC fue desarrollado aún antes de que la ENIAC fuera puesta en marcha y tenía la intención de resolver muchos de los problemas encontrados en el diseño de la ENIAC. Poseía físicamente casi 6.000 tubos de vacío y 12.000 diodos, consumía 56 kilowatts de potencia, cubría 45,5 m² de superficie y pesaba 7.850 kg. Fue construida de los siguientes componentes físicos: un lector-grabador de cinta magnética, una unidad de control con osciloscopio, una unidad para recibir instrucciones del control y la memoria y para dirigirlas a otras unidades, una unidad computacional para realizar operaciones aritméticas en un par de números a la vez y mandarlos a la memoria después de corroborarlo con otra unidad idéntica, un cronómetro, y una unidad de memoria dual.

M.C. Bertha López Azamar 26

Page 28: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

La EDVAC corrió hasta 1961 cuando fue reemplazada. En su vida, demostró ser altamente confiable y productiva. Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente.

Por su parte, John Presper Eckert y John William. Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una Compañía privada, la Eckert-Mauchly Computer Company, y comienzan a diseñar y construir la UNIVAC I (UNIVersal Automatic Computer), fue la experiencia con la EDVAC lo que sirvió de base para el diseño de la UNIVAC. En 1946, que el Comité del censó utilizó para evaluar el de 1950. Fue la primera computadora comercial fabricada en Estados Unidos, para un propósito no militar. De 1951 a 1958 en total se vendieron 46 unidades. Era una computadora que pesaba 16.000 libras (7.250 kg aproximadamente), estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo, procesaba los dígitos en serie, y podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo. Funcionaba con un reloj interno con una frecuencia de 2,25 MHz, tenía memorias de mercurio, mismas que no permitían el acceso inmediato a los datos, pero tenían más fiabilidad que los tubos de rayos catódicos, que son los que se usaban normalmente.

Realizaba una suma en 120 µseg., una multiplicación en 1800 µseg. y una división en 3600 µseg. La entrada consistía en una cinta magnética con una velocidad de 12800 caracteres por segundo, tenía una tarjeta que convertía la información desde tarjetas perforadas a cintas magnéticas con una velocidad de 200 caracteres por segundo. La salida podía ser por cinta magnética a 12800 caracteres por segundo, o por una impresora con una velocidad de 600 línea por minuto.

En la imagen observe la estación de control de la UNIVAC I

Un evento histórico que dio origen a la confianza en los equipos de cómputo fue la utilización de la UNIVAC, en 1952, para la predicción del éxito de Eisenhower con 438 votos electorales sobre Stevenson, 45 minutos después de haber cerrado las consultas y con el 7% de los votos contados, predijo que ganaría con 442.

La UNIVAC II fue la primer computadora en tener una unidad de memoria RAM de núcleos de ferrita (las anteriores memorias fueron construidas con válvulas electrónicas, delays de mercurio, y hasta capacitores).

IBM comenzó a construir computadoras electrónicas y su incursión al mercado se dio con la IBM 701 en 1953, en si fue la primera computadora científica comercial de IBM, Sus hermanos en la computación de oficina eran el IBM 702 y el IBM 650. El sistema utilizó tubos Williams para la memoria, consistiendo en 72 tubos con una capacidad de 1024 bits, dando una memoria total de 2048 palabras de 36 bits cada uno. Cada uno de los 72 tubos eran de 76 mm de diámetro. Una operación entera de suma tomaba 5 ciclos de máquina de 12 microsegundos a 60 microsegundos, multiplicaba y dividía en 38 ciclos de la máquina de 12 microsegundos a 456 microsegundos.

M.C. Bertha López Azamar 27

Page 29: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Es en 1954 que se introduce el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras, aunque este número era mayor que la cantidad de computadoras instaladas en esa época en EE.UU.. De hecho la IBM instaló 1000 computadoras. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

En general la tecnología de software en este período era muy primitiva. Los programas eran escritos en código máquina, los operadores ingresaban los números que correspondían a las instrucciones almacenadas en memoria por medio de un panel de cables que eventualmente evolucionó a la utilización de tarjetas perforadas. El almacenamiento interno se lograba con una de cuatro tecnologías: Líneas de retraso de mercurio, tambores magnéticos, bulbos de almacenamiento electrostático y de núcleo magnético.

Desde la década de los 50 se comenzó a utilizar la notación simbólica, conocida como lenguaje ensamblador, para luego ser traducido a mano a código máquina. Eventualmente aparecieron los ensambladores, que realizaban el trabajo de traducción.

La importancia de la UNIVAC se refleja en que ella tuvo el primer diseño de compilador (programa traductor de un lenguaje simbólico a código máquina) gracias a los trabajos de la Teniente Grace Murray Hopper. Es desde 1951 da la primera noción de compilador, y en en 1952 se diseño el A-0 que traducía notación con símbolos matemáticos a código máquina. Hopper sugiere que la UNIVAC se debería programar en un lenguaje de programación "natural" similar al inglés, como esta opinión fue ridiculizada por sus pares, en 1952 diseña el lenguaje B-0, más tarde conocido como FLOW-MATIC utilizado para programar tareas básicas de negocios, además probó en 1960 su primera versión de lenguaje COBOL (Common Busines Oriented Lenguaje), el primer lenguaje de programación de alto nivel que permitía a cualquier experto en administración realizar un schedule (programación de una tarea) que luego sería ejecutado por la computadora sin tener que aprenderse el binario. Aunque el COBOL se desarrollo durante esta primera generación, no estuvo disponible comercialmente sino hasta la segunda generación.

Esta generación se desvaneció en la historia con la creación y utilización de transistores, que es el indicador para la aparición de la segunda generación de computadoras.Segunda generación

La complejidad del diseño de los CPU (Unidad Central de Procesamiento) se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor.

En 1947 los físicos Walter Brattain, William Shockley y John Bardeen, de los laboratorios Bell, crean el primer transistor de germánio. El mismo Shockley en 1950 creó el primer transistor de base de silicio, material más dúctil y manejable que el germanio.

El descubrimiento del transistor trae como consecuencia la disminución de los costos de las computadoras, la disminución de tamaño y rapidez. aí 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Con el transistor fue posible construir CPU más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales). Así por 1959 los transistores discretos eran considerados suficientemente confiables y económicos que hicieron no competitivos los computadores de tubos de vacío.

M.C. Bertha López Azamar 28

Page 30: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Un efecto directo de estos avances fue que no solo los organismos estatales y grandes centros de investigación podían costear el armado de computadoras, sino que grandes empresas podían llegar a costear la construcción de computadoras para uso privado, de ahí que las empresas que intervinieron en el desarrollo de computadoras fueran encargadas de realizar computadoras a pedido, haciendo esto que se plantearan las computadoras como elementos modulares ensamblables a partir de circuitos básicos desarrollados en plaquetas electrónicas. Aun cuando el nuevo invento hizo posible computadoras más rápidas, más pequeñas, con menores necesidades de ventilación y menos consumo de electricidad, el costo seguía siendo una porción significativa del presupuesto de una Compañía.

Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.

La primera computadora a transistores fue el mainframe IBM 1401, que salió al mercado en 1960. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades Utilizaba una memoria de núcleo magnético de más de 60.000 dígitos decimales.

Otras de las máquinas que se construyeron en esta época fueron la TRADIC, de los Laboratorios Bell (donde se inventó el transistor), en 1954, la TX-0 del laboratorio LINCOLN del MIT y las IBM 704, 7090 y 7094.

En si parte de la bibliografía ubica como la primera computadora basada puramente en transistores a la TX-0 (Transitorized eXperimental computer 0), del MIT. Uno de los ingenieros que trabajaron en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía DEC (Digital Equipment Company).

Durante 1960, la compañía DEC (Digital Equipment Corporation) lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación. Es una pequeña computadora (para la época) antecedente de las Minicomputadoras. La computadora PDP-1 es famosa por ser el computador más importante en la creación de la cultura hacker (grupo de estudiantes) en el MIT, BBN y en otras partes. El PDP-1 fue también el hardware original donde se jugó el primer videojuego computarizado de la historia, el Spacewar de Steve Russell. Tenía palabras de 18 bits y 4K de palabras como memoria principal estándar (equivalente a 9 kilobytes), ampliable a 64K de palabras (144 KB). La duración de ciclo de memoria de núcleo magnético era 5 microsegundos (que corresponden rudamente a una "velocidad de reloj" de 200 KHz); consecuentemente, la mayoría de las instrucciones aritméticas tomaban 10 microsegundos (100.000 operaciones por segundo) porque tenían dos ciclos de memoria: uno para la instrucción, uno para la lectura del dato del operando.

Otras de las computadoras que se construyeron ya con transistores fueron las Honeywell 800 y su serie 5000, UNIVAC M460, NCR 315, las RCA 501 y 601, Control Data Corporation

M.C. Bertha López Azamar 29

Page 31: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento.

Nace en esta generación el concepto de Super Computadora relacionado a las aplicaciones de investigación científica, así se construyen las supercomputadoras Remington Rand UNIVAC LARC (Livermore Atomic Research Computer), e IBM Stretch (1961). La LARC fue diseñada por la Sperry Rand Corporation en 1960 del cual se construyeron 2 unidades, y la IBM 7030 de mayo de 1961 con seis unidades construidas en distintas instituciones.

Burroughs, UNIVAC, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH

En 1957 se produce el primer disco magnético RAMAC 650 de IBM. Estas computadoras de la segunda generación utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron y podían transferirse de una a otra con un mínimo esfuerzo. Ya que la consecuencia de armar computadoras partiendo de una adaptación del un mismo diseño creo las denominadas familias de computadoras, por lo que permitían desarrollar software utilizable con pocas variaciones entre una computadora y otra y por lo tanto fue más fácil adiestrar técnicos para que conozcan una familia entera de computadoras y así poder reinsertarlo en el grupo de trabajo de cualquiera de ellas.

El escribir un programa ya no requería entender plenamente el hardware de la computadora, es decir lenguaje máquina y los lenguajes se vuelven más avanzados, conocidos con el nombre de lenguajes de alto nivel o lenguajes de programación.

El COBOL desarrollado durante la primera generación estaba ya disponible comercialmente, era un lenguaje Orientada al Negocio. Sin embargo fue John Backus quien desarrolla el primer compilador.

Desde 1953 se amplía el uso del lenguaje ensamblador para la programación de las computadoras. A finales de 1953, John W. Backus sometió una propuesta a sus superiores en IBM para desarrollar una alternativa más práctica al lenguaje ensamblador para programar el computador central IBM 704. Así a mediados de 1954 fue terminada una especificación del borrador para The IBM Mathematical Formula Translating System. El primer manual para el FORTRAN apareció en octubre de 1956, porque los clientes eran reacios a usar un lenguaje de programación de alto nivel a menos que su compilador pudiera generar código cuyo desempeño fuera comparable al de un código hecho a mano en lenguaje ensamblador. Y es en 1957 cuando John Backus y sus colegas en IBM produjeron el primer compilador para el lenguaje de programación de propósito general llamado FORTRAN (FORmula TRANslator), que fue usado para ap Los primeros sistemas que utilizaron compiladores (traductores de lenguaje de alto nivel a lenguaje de máquina) requerían el siguiente procedimiento para la ejecución de un proceso:

1. En primera instancia el programa se codificaba en papel en formularios específicos, referenciados convenientemente.

2. En un segundo paso un Perforador realice una transcripción a tarjetas perforadas utilizando una tarjeta por línea de código.

3. El tercer paso consistía en cargar el programa compilador en el equipo desde un lector de tarjetas o desde una unidad de almacenamiento secundaria (unidad de cinta por ejemplo).

M.C. Bertha López Azamar 30

Page 32: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

4. El cuarto paso consistía en poner el porta tarjetas con las tarjetas ordenadas del programa fuente (el que hizo el perforador) para que el programa compilador genere una o varias tarjetas con el código binario en la salida.

Para poder utilizar el programa diseñado, era necesario vaciar la memoria, poner a cargar las tarjetas con el programa en binario, y luego alimentar el programa con datos para que procese.

De ahí se explica un poco la particularidad de los lenguajes como el COBOL y el FORTRAN de codificarse a partir de una determinada columna de texto, dejando 6 u 8 lugares para poner un número de línea al principio aplicaciones científicas y de ingeniería (matemáticas).

También de esta época data el concepto de Inteligencia Artificial, basado en los trabajos del matemático Alan Turing, cuyo mayor fruto es el lenguaje LISP (de List-Processing) propuesto en 1958 por John MacCarthy,este es un lenguaje orientado a la realización de aplicaciones en el ámbito de la Inteligencia Artificial, es originalmente para el procesamiento de listas y la manipulación de fórmulas simbólicas. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollan el lenguaje ALGOL.

Las computadoras comenzaron a usarse para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de EE.UU.. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Las empresas comenzaron a aplicar las computadoras en las tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

Tercera generaciónEl descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S.

Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.

Aunque el primer circuito integrado fue producido en septiembre de 1958, los computadores que los usaban no comenzaron a aparecer hasta 1963. Así las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Se desarrollaron los "chips" para almacenar y procesar la información, es decir se empezaron a empaquetar varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.

Las computadoras nuevamente se hicieron más pequeñas, más rápidas, consumían menos electricidad por lo tanto desprendían menos calor. Las velocidades de cálculo se disparan al nanosegundo (10-9 segundos), las memorias externas al megabyte (210 posiciones de memoria) y se generalizan variados periféricos: impresoras, lectores de tarjetas, lectores ópticos, discos flexibles de almacenamiento.

M.C. Bertha López Azamar 31

Page 33: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Es notable que se empezaron a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, entre otros. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.

La computadora IBM S/360 dominó las ventas de la tercera generación de computadoras, es un sistema de computación de la familia mainframe que IBM anunció el 7 de abril de 1964. El arquitecto jefe del S/360 fue Gene Amdahl. Fue de las primeras computadoras comerciales que usó circuitos integrados, así como el primer modelo en usar microprogramación24 y podía realizar tanto análisis numéricos como administración o procesamiento de archivos. Observe debajo el microcódigo TROS:

La serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. La familia del 360 consistió en 6 computadoras que podían hacer uso del mismo software y los mismos periféricos. El sistema también hizo popular la computación remota, con terminales conectados a un servidor, por medio de una línea telefónica.

Los modelos S/360 anunciados en 1964 variaban en velocidad de 0,034 MIPS a 1,700 MIPS (50 veces la velocidad) y entre 8 KB y 8 MB de memoria principal, aunque este último fue inusual.

IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en los CPU modernos. En general esta familia de computadoras abrió el uso comercial de microprogramas y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multiprogramación25 disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida.

Fue el primer computador en ser atacado con un virus en la historia de la informática; y ese primer virus que atacó a esta máquina IBM Serie 360 (y reconocido como tal), fue el Creeper, creado en 1972

La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante un buen tiempo, causó tal impacto en el mundo de la computación que se fabricaron más de 30,000, al grado que IBM llegó a conocerse como sinónimo de computación. Más de 14.000 System/360 habían sido entregadas en 1968. Todos los modelos System/360 fueron retirados del mercado a finales de 1977.

24 Método sistemático para diseñar la unidad de control de cualquier sistema digital. Hoy día la microprogramación ha desaparecido prácticamente por completo.

25 Técnica que permite que dos o más procesos ocupen la misma unidad de memoria principal y que sean ejecutados al "mismo tiempo" (pseudo-paralelismo) en la unidad central de proceso o CPU, por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Permite el servicio interactivo simultáneo a varios usuarios de manera eficiente.

M.C. Bertha López Azamar 32

Page 34: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron un enorme auge entre 1960 y 70.

La minicomputadora fue una innovación significativa en los años 1960 y 1970. Trajo poder de computación a más gente, no sólo por medio de un tamaño físico más conveniente sino también ampliando el campo del vendedor de computadora.

El PDP-8 (Programmed Data Processor - 8), creado por DEC en abril de 1965, fue la primera minicomputadora. PDP-11 fue otra de su computadoras, se fabrico en las décadas de 1970 y 1980. Fue la primera minicomputadora en interconectar todos los elementos del sistema ( procesador, memoria y periférico) a un único bus de comunicación, bidireccional, asíncrono. La PDP-11 fue una de las series de minicomputadoras más vendidas en su época y fue una de las primeras computadoras en las que corrió el sistema Unix, desarrollado en los Laboratorios Bell. Durante la guerra fría, la arquitectura de la PDP-11 fue clonada sin autorización del constructor de manera que los programas que corrían en máquinas de esta serie podían ser ejecutados sin cambios en los clones fabricados en Europa del Este.

En 1965 Seymour Cray diseño la primera supercomputadora de la historia, la CDC 6600, fabricada por Control Data Corporation. Es en sí la primera supercomputadora comercial. Se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3,000,000 de instrucciones por segundo (mips).

Esta computadora posee una CPU de 60 bits y 10 unidades periféricas de procesamiento (PPUs), ejecutaba a una velocidad de 9 Mflops (es decir, un orden de magnitud más que la IBM 7094). El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutándose a la vez).

Durante 1966, IBM lanza la computadora 1130, si bien no era tan poderosa como sus hermanas mayores (sistemas 360 y posterior 370) tenía la particularidad de ser de bajo costo y compatible en cierta medida con los sistemas mayores, lo que permitió a muchas instituciones educativas de alto nivel y empresas de rango medio acceder al poder de la computación y en efecto determinó la gran cantidad de profesionales técnicos que se volcaron al uso de la computadoras sin necesidad de ser científicos. Esta computadora era utilizada en conjunción con lenguajes de alto nivel como Fortran, RPG y COBOL. La memoria del 1130 podía ser de 4096, 8192, 16384 o 32768 palabras de 16 bits, o sea, entre 8 y 64 Kb, los datos se almacenaban en una memoria de núcleos magnéticos (ferrite) y se accedia a ellos en un tiempo que podìa variar entre 2 y 4 microsegundos o sea a una frecuencia entre 500 y 250 khz (menos de medio Mhz). Además permitía la utilización de un disco de 512000 palabras (1MB) de capacidad.

La integración en gran escala de los circuitos condujo al desarrollo de unidades de procesamiento muy pequeñas. Un ejemplo temprano de esto fue el procesador clasificado CADC usado para analizar los datos de vuelo en el avión de combate del F-14 Tomcat de la Armada de los Estados Unidos. Este procesador fue desarrollado por Steve Geller, Ray Holt y un equipo de Garrett AiResearch y American Microsystems.

M.C. Bertha López Azamar 33

Page 35: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

En 1966, Hewlett-Packard entró en el negocio de computadores de propósito general con su HP-2116, ofreciendo poder de computación antes encontrado solamente en computadores mucho más grandes. Soportó una gran variedad de lenguajes, entre ellos BASIC, ALGOL, y FORTRAN.

En 1969, Data General despachó un total de 50.000 Novas El Nova fue uno de los primeros minicomputadores de 16 bits y condujo hacia las longitudes de palabra que eran múltiplos del byte de 8 bits. Era el primero en emplear circuitos de mediana escala de integración (MSI) de Fairchild Semiconductor, con modelos subsecuentes usando circuitos integrados de gran escala de integración (LSI). También fue notable en que la unidad central de proceso entera estaba contenida en una tarjeta de circuito impreso de 15 pulgadas. La arquitectura simple del conjunto de instrucciones inspiraron a la Apple I, de Steve Wozniak, ocho años más tarde.

En 1969, programadores de los laboratorios AT&T Bell, Ken Thompson y Denis Richie desarrollan el UNIX, primer sistema operativo que podría ser aplicado en cualquier máquina. Ese año, el ejército americano conectó las máquinas de Arpanet, formando la red que originaría Internet.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibió el nombre de programación de sistemas.

El BASIC (Beginner's All purpose Symbolic Instruction Code), nació en el año 1964, en la Universidad de Dartmouth, bajo la dirección de John Kemmey y Thomas Kurtz. En 1963 la Universidad de Dartmouth decidió que todos los estudiantes debían aprender a manejar las computadoras, de este modo se empezó a trabajar en "tiempo compartido" o empleo de terminales, usando un ordenador General Electric. El lenguaje de programación BASIC nació como una herramienta destinado a principiantes, buscando una forma sencilla de realizar programas, empleando un lenguaje casi igual al usado en la vida ordinaria (en inglés), y con instrucciones muy sencillas y escasas. Teniendo en cuenta el año de su nacimiento, este lenguaje cubría casi todas las necesidades para la ejecución de programas

En 1967 fue desarrollado por Richard Greenblatt, en MIT, el primer programa exitoso de ajedrez. El programa, llamado MacHack, fue presentado en un torneo de ajedrez en la categoría de novatos y ganó. El desarrollo futuro de la tecnología de inteligencia artificial (IA) se basó en gran medida en tales software de juego.

Entre 1968 y 1970, Nicklaus Wirth diseña el lenguaje de programación Pascal en el ETH (Zurich Federal Institute of Technology). Pero es hasta 1974 es cuando escribe el primer compilador de Pascal que es puesto a disposición del publico.

En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet ( de donde surge Internet), con el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar el intercambio entre las computadoras y los periféricos.

En 1970 fue comercialmente producido por Corning Glass Works, Inc. el primer cable de fibra óptica. El cable de fibra óptica de vidrio hizo que se transmitieran más datos por ellos, más rápido que por alambre o cable convencional. El mismo año, los circuitos ópticos fueron mejorados aún más, por el desarrollo del primer láser semiconductor.

M.C. Bertha López Azamar 34

Page 36: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

En 1970 fue publicado por E.F. Codd el primer modelo de banco de datos relacional. En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a

usarse la tecnología de MOS (Metal-Oxide semiconductor) para tener circuitos integrados más pequeños y baratos.

En términos generales, mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción, el costo individual de cada uno por lo general se reduce al mínimo. Entre los circuitos integrados más complejos y avanzados se encuentran los microprocesadores, que controlan numerosos aparatos, desde computadoras hasta teléfonos móviles y hornos microondas. Los chips de memorias digitales son otra familia de circuitos integrados, de importancia crucial para la moderna sociedad de la información.

Las minicomputadoras, ancestros de la moderna computadora personal, usaron una temprana tecnología de circuitos integrados (microchip), que redujo el tamaño y el costo, pero no contenía al microprocesador en un chip.

Antes de 1971, la supercomputadora ILLIAC IV, que fue el computador más rápido del mundo por varios años, usó alrededor de un cuarto de millón de circuitos integrados de puertas lógicas ECL de baja escala de integración para hacer sesenta y cuatro procesadores de datos paralelos.

Cuarta generaciónLa invención del circuito integrado de los años 60, llevó a Ted Hoff a la invención del

microprocesador, en Intel, llamado Intel 4004 en 1971. Era un procesador de 4-bit con 2250 transistores, capaz de casi el mismo poder como el ENIAC de 1946 (que llenaba un cuarto grande y tenía 18,000 tubos al vacío). El chip 4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho.

La compañía Intel (Integrated Electronics) nace en 1968, es establecida por Gordon Moore, Robert Noyce y Andy Grove. En un principio se dedicaba a fabricar chips de memoria. Y durante 1969 Computer Terminal Corp (CTC) encargó a Intel el desarrollo de un conjunto de chips que sirvieran de base para la CPU de su nueva terminal Datapoint 2200 reduciendo costos de fabricación y montaje. El trabajo llevo al equipo de desarrollo a concluir que todos los circuitos podrían integrarse en un único chip. De ahí surge el Intel 4004.

A partir de allí las posibilidades de fabricación de computadoras se potenciaron mediante las familias de Microprocesadores.

Durante 1971 IBM lanza el primer modelo computadora perteneciente al Sistema 370, con la característica de ser el primero en utilizar Circuitos Integrados de Alta Escala de Integración (Chips LSI), algunos señalan a este acontecimiento como el inicio de la Cuarta Generación.

En forma paralela en 1971 se construyó la primera computadora personal y fue distribuida por John Blankenbaker, quien formó la Kenbak Corporation Esta computadoras

anterior a los microprocesadores puesto que fue construida casi en su totalidad a partir de componentes TTL. El computador, llamado Kenbak-1, tenía una capacidad de memoria de 256 bytes, desplegaba los datos con un juego de LED pestañeantes y era tedioso

M.C. Bertha López Azamar 35

Page 37: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

programarlo. El equipo Kenbak-1 representa el primer computador disponible comercialmente basado en la arquitectura Von Neumann y destinado para uso personal. Aunque sólo se vendieron 40 computadoras Kenbak-1, introdujo la revolución de la computadora personal.

En 1971 Alan Shugart inventó el disco flexible de 8”El 1ro de abril de 1972 Intel lanzó su primer procesador de 8 bits: el 8008 y aunque

despertó mucha curiosidad en el mercado no provocó una gran cantidad de ventas. Integraba 3300 transistores y podía procesar a frecuencias máximas de 800 Khz.

En el mismo año, Hewlett-Packard, HP, anunció la HP-35 como "la más rápida y precisa calculadora electrónica" con una memoria solid-state similar a la de una computadora. Así mismo Dennis M. Ritchie, de los AT&T Bell Laboratories, desarrolla el lenguaje de programación C.

En 1973 Robert Metcalfe diseño Ethernet, método para la conexión en red, en el centro de investigación de Xerox en Palo Alto, California. La Micral fue la primera computadora comercial basada en un microprocesador, el Intel 8008.

Con posterioridad en abril de 1974 se lanzó el 8080 que sirvió de base para la construcción de la primer computadora personal de cuarta generación: el Altair 8800. El Intel 8080 fue el primer microprocesador ampliamente usado, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. El Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2 MHz.

En el mismo año, los investigadores de Xerox, en el centro de investigación en Palo Alto, proyectaron el ALTO, la primera estación de trabajo con una entrada interna para mouse.

En el enero de 1975 Micro Instrumentation Telemetry Systems (MITS) introdujeron el Altair. Una minicomputadora mas personal, era barata, del sistema que no tenía teclado, amonestador, o aparato del almacenamiento de la memoria, pero llevó el microprocesador 8-bit Intel 8080. Cuando se actualizó la computadora con 4 kilobyte de expansión de la memoria, Paul Allen y Bill Gates (más dueño de Microsoft Corporation) desarrolló una versión de BASIC como un idioma de la programación por la computadora.

En 1974 algunos ingenieros de Intel decidieron abrirse y formar su propia empresa a la que denominaron ZILOG durante 1976 lanzaron su producto estrella, el microprocesador Z-80

En mayo de 1976 fue presentada en la feria de Homebrew Computer Club, la computadora APPLE I, diseñada y probada en California por Steve Wozniak, Steve Jobs y Ron Wayne. Esta computadora se vendío en forma de kit por 666,66 dólares la unidad a la tienda local denominada Byte Shop, que la dotó de una carcaza de madera y un teclado para hacerla mas atractiva a la vista. Su procesador era un MOS Technology 6502 corriendo a 1.023 Mhz, tenía 4KB de RAM y conexión para adosarle cualquier teclado ASCII estándar.

En el mismo año, Gary Kildall desarrolló el CP/M, un sistema operativo para computadoras personales.

Había algunos investigadores en lugares tales como SRI y Xerox PARC que estaban trabajando en computadores que una sola persona pudiera usar y pudieran ser conectados por

M.C. Bertha López Azamar 36

Page 38: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

redes rápidas y versátiles: no computadores caseros, sino computadores personales. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

En 1977, surge la primera computadora personal ensamblada la Commodore PET (Personal Eletronic Transactor) y fue la primera de muchas computadoras personales que surgieron este año. Y la computadora Apple II se hizo un éxito en su lanzamiento, en 1977, por sus características: circuito impreso en su placa-madre, fuente de alimentación, teclado y cartuchos para juegos.

Dentro de unos años el PC (computadora personal) había llegado a ser un pedazo de la vida personal de cada uno de sus usuarios, y aparecería pronto en bibliotecas públicas, escuelas, y lugares de negocio. Fue también durante este año que la primera red de área local comercialmente disponible (Local Area Network - LAN) fue desarrollada por Datapoint Corporation, llamada ARCnet.

En 1978 Intel lanza lo que será su producto estrella y creador de una de las familias más famosas y utilizadas en las computadoras, el Intel 8086 y su hermano pequeño el 8088, fue lanzado en 1979. Fueron los primeros microprocesadores de 16 bits y llegaron a operar a frecuencias mayores de 4 Mhz. A partir de la creación de estos padres de la familia i86, la explosión PC de la mano de IBM se convirtió en la familia más extendida de computadoras hasta la actualidad.

En 1980 el primer prototipo de Computadora de Instrucción Reducida (RISC) fue desarrollado por un grupo de investigación en IBM. La minicomputadora 801 usó un juego simple de instrucciones en lenguaje de la máquina, que puede procesar un programa muy rápido. IBM introdujo su PC, proporcionando rápido crecimiento del mercado de computadoras personales. El MS-DOS (Microsoft Disk Operating System) fue el software básico o sistema operativo lanzado para la PC de IBM, estableciendo una larga asociación entre IBM y Microsoft.

Adam Osborne desarrolló la primer computadora portátil, el Osborne I. Apollo Computer desarrolló la primera estación de trabajo, la DN100, con capacidad

superior a la de muchos mini computadoras de precios similares. Se desarrollo el Lotus 123, software desarrollado para la computadora personal del IBM,

una hoja de cálculo.Para 1983, la primer computadora personal con interfaz gráfica es desarrollada por

Apple. Compaq Computer Corporation introdujo su primer computadora personal (PC), que usaba el mismo software que la PC de IBM. Microsoft anunció el procesador de textos Word, llamado anteriormente Multi-Tool Word. Ademas anunció el lanzamiento del sistema operativo Windows.

Para 1984 Apple Computer Corporation lanzó el Macintosh, la primer computadora con ratón e interfaz gráfica. Y el disquete de 3 ", o " floppy", fue ampliamente aceptado por el mercado, ayudado por la decisión de Apple Computer de integrarlo en el nuevo Macintosh. Así mismo, en ese año Hewlett-Packard introduce al mercado la primera computadora de impresión láser.

Para 1986 Internet avanzó otro gran paso cuando el National Science Foundation estructuró el NSFNET conecta cinco supercomputadoras en las Universidades de Princeton,

M.C. Bertha López Azamar 37

Page 39: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Pittsburgh, California, Illinois y Cornell. Los CD-ROM con capacidad para almacenar 550Mb de informacion, expandieron el mercado de CDS de música.

En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Originalmente las computadoras basadas en microprocesadores eran muy limitadas en su velocidad y capacidad de cómputo, y no eran, de ninguna manera, un intento de reducir el tamaño de la minicomputadora, sino que se dirigían a un mercado enteramente diferente. Actualmente los microprocesadores son un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante.

Aunque las capacidades de procesamiento y memoria hayan crecido desde los años 1970 más allá de todo reconocimiento, la tecnología subyacente de microchips de alta escala de integración (LSI) o muy alta escala de integración (VLSI) ha continuado siendo básicamente la misma, así que se considera extensamente que la mayor parte de los computadores de hoy todavía pertenecen a la cuarta generación.

En las computadoras de esta generación se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario.

Hoy en día no todo es microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo,; actualmente es evidente que la capacidad de las microcomputadoras rebasaba enormemente la capacidad que tenían los grandes sistemas de hace 10 o 15 años, los cuales a su vez requerían de costosas y especiales instalaciones; pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia es inevitable prácticamente en todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM, por ejemplo, han sido equipos capaces de atender varios cientos de millones de operaciones por segundo.

M.C. Bertha López Azamar 38

Page 40: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.3 Definición de InformáticaEl término informática proviene del francés “informatique” mezcla de las palabras

“information” y “automatique”, un término inventado por Phillipe Dreyfys en Francia por el año 1962 y aceptado por la Academia Francesa en 1966, En Español lo aceptaron en 1968.

Informática se define como:• El conjunto de disciplinas y técnicas que se encargan del tratamiento automático de la

información.• La ciencia que se encarga de la automatización del manejo de la información.• El conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento

automático de la información por medio de computadoras. (RAE)• Se trata de la rama ingenieril relativa al tratamiento de información automatizado

mediante máquinas. Este campo de estudio, investigación y trabajo comprende el uso de la computación para resolver problemas mediante programas, diseño, fundamentos teóricos científicos y diversas técnicas.

• La ciencia que tiene que ver con los sistemas de procesamiento de información y sus implicaciones económicas, políticas y socioculturales. (definición de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura -UNESCO)

• Disciplina encargada del estudio de métodos, procesos, técnicas, desarrollo de computadoras, con el fin de almacenar, procesar y transmitir información y datos en formato digital.

1.3.1 Computación e InformáticaDefinición de computación:

• La Computación es la disciplina que busca establecer una base científica para resolver problemas mediante el uso de dispositivos electrónicos y sistemas computacionales.

• La Computación es el estudio de métodos algorítmicos para representar y transformar la información, incluyendo su teoría, diseño, implementación, aplicación y eficiencia. Las raíces de la computación e informática se extienden profundamente en la matemática y la ingeniería. La matemática imparte el análisis del campo y la ingeniería imparte el diseño.

• La Computación se define como el conjunto de conocimientos científicos y técnicos (bases teóricas, métodos, metodologías, técnicas, y tecnologías) que hacen posible el procesamiento automático de los datos mediante el uso de computadores, para producir información útil y significativa para el usuario.

El concepto "Computación" refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. Es de este modo, que aparecen conceptos como la PC, Tecnología, Internet e Informática, que se vinculan entre sí en el marco del procesamiento y movilidad de la información.

Las Ciencias de la Computación suponen un área muy profunda de análisis, que tiene sus orígenes en 1920, cuando "computación" hacía referencia a los cálculos generados por la propia persona. Luego, con la llegada de las PC´s, la historia y el significado de este concepto se

M.C. Bertha López Azamar 39

Page 41: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

ampliaría sobre nuevos horizontes, distinguiendo los algoritmos que forman parte del desarrollo de las soluciones.

En resumen, "computación" implica las órdenes y soluciones dictadas en una máquina, comprendiendo el análisis de los factores involucrados sobre este proceso, dentro de los cuales aparecen los lenguajes de programación. De este modo, se automatizan tareas, generando datos concretos de forma ordenada. Diferencias entre computación e informáticaLa computación se refiere al estudio científico que se desarrolla sobre sistemas automatizados

de manejo de información, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. La computación está referida a la tecnología en sí que permita el manejo y movilidad de información en cuanto a esta ciencia o conocimiento se refiere y también a los fundamentos teóricos de la información que procesan las computadoras, y las distintas implementaciones en forma de sistemas computacionales.

La informática es la encargada del tratamiento automático de la información. Este tratamiento automático es el que ha cedido a la computación la manipulación de grandes proporciones de datos y la ejecución rápida de cálculos complejos. También se aboca a los tratamientos de software por parte de los usuarios y demás aspectos referidos a programas, hardware y estructura de las computadoras.

La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadoras, las redes de datos, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica.

Su área de aplicación no tiene límites, se utiliza en muchos sectores, por ejemplo en : la gestión de negocios el almacenamiento de

información la monitorización y

control de procesos las comunicaciones de

los transportes

medicina la industria investigación el desarrollo de

pagos el diseño

computarizado

biología química física meteorología

La informática asiste a físicos, médicos, enfermeros, biólogos, meteorólogos, químicos, ingenieros, investigadores científicos, comunicadores, artistas, empresarios, y a casi cualquier persona que viva en una sociedad industrial moderna.

Entre las funciones principales de la informática se cuentan las siguientes:• Creación de nuevas especificaciones de trabajo • Desarrollo e implementación de sistemas informáticos • Sistematización de procesos • Optimización de los métodos y sistemas informáticos existentes

Observe en la figura las nueve áreas de interés de la informática:

M.C. Bertha López Azamar 40

Page 42: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Contexto Social: hace referencia a los efectos de la informática sobre las acciones y las relaciones humanas y su entorno.

Algoritmos y estructuras de datos: se suelen utilizar metodologías y modelos específicos para representar la información y para resolver problemas computacionales

Lenguajes de programación: Para representar las soluciones a problemas algorítmicos, los programadores utilizan lenguajes “artificiales”, que pueden ser tanto entendidos como los seres humanos como por las computadoras.

Arquitectura: Es necesario entender como está diseñada y construida una computadora y cómo consiguen realizar de forma eficiente y fiable la secuencia de operaciones que componen la solución a un problema algorítmico.

Ingeniería y metodología del software: Los programadores necesitan utilizar métodos pensados para desarrollar software seguro, eficaz y fiable para las computadoras.

Puede considerarse que la disciplina de la informática se basa en tres paradigmas o formas de razonar, que se denominaran TEORÍA, ABSTRACCIÓN y DISEÑO.

Una persona que trabaje utilizando el paradigma de la teoría, tiende a pensar como un matemático, en términos de definiciones formales, axiomas, teoremas y demostraciones. Consiste en los cuatro pasos que siguen para el desarrollo de una teoría válida y coherente:

1. Caracterizar los objetos en estudio (definición)2. Realizar hipótesis sobre las posibles relaciones entre ellos (teorema)3. Determinar si son verdaderas las relaciones (demostraciones)

M.C. Bertha López Azamar 41

Page 43: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

4. Interpretar los resultadosEl proceso de abstracción (modelización), encuentra sus orígenes en ciencias como la

física, la química o la biología. Con este paradigma, los científicos 1. Aventuran hipótesis2. Construyen modelos3. Realizan predicciones4. Llevan a cabo experimentos y obtienen resultados para demostrar las hipótesis.

El diseño, tiene su origen en la ingeniería. Un diseñador 1. Recaba requisitos2. Formula especificaciones3. Prepara e implementa el diseño4. Prueba y evalúa el modelo realizado.

Los tres paradigmas son complementarios e interdependientes cuando se utilizan en informática. Es decir, la resolución de la mayoría de los problemas de la informática implica alguna combinación de teoría, abstracción y diseño.

M.C. Bertha López Azamar 42

Page 44: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.3.2 Tipos de usuarios de computadoraUno de los aspectos principales de la informática es el manejo de información, razón por

la cual se crean sistemas de información, en los cuales el corazón es la base de datos (BD).Clasificación general de los distintos tipos de usuarios (Adoración, 1999):

Usuarios informáticos. Son quienes realizan tareas de creación y mantenimiento de la BD , así como la realización de los procedimientos y programas que necesiten los usuarios finales.

Usuarios finales. Son los que tienen que acceder a los datos porque los necesitan para llevar a cabo la actividad diaria en la empresa. Su interés esta centrado en los datos.

Clasificación de usuarios informáticos:Diseñadores. Son responsables de identificar los datos que deberán almacenarse de acuerdo a las

necesidades de los usuarios finales, determinando la estructura (esquema) más apropiada.Administradores de base de datos(ABD). Vigila y gestiona los recursos (datos, SGBD,

herramientas), cuidando que los datos no se destruyan, ni se contaminen perdiendo su confidencialidad, disponibilidad e integridad; debe impedir las consultas o actualizaciones no autorizadas y proteger la BD contra fallas físicas o lógicas. Es responsable de establecer la autorización de acceso a los demás usuarios. Así como ocuparse del buen funcionamiento de todo el sistema, sin que se produzcan interrupciones, y vigilar que se proporcionen los datos en los tiempos de respuesta adecuados.

Analistas y programadores. Analizan y programan las tareas que no pueden ser llevadas a cabo por los usuarios finales, es decir, desarrollan las aplicaciones que accesan a los datos de la BD que requieren los usuarios finales y las ponen a su disposición. El Analista de Sistemas audita en forma sistemática, el funcionamiento de la empresa al examinar las funciones de captura y procesamiento de datos, así como la emisión de los resultados, lo cuál le permitirá mejorar los procesos de la empresa. Al mejorar el soporte que proporcionan los sistemas computarizados, se obtienen importantes avances en las funciones empresariales. Estas definiciones recalcan el uso de enfoques sistemáticos y metódicos para analizar y lograr mejoras de las operaciones que ocurren en el contexto particular de la empresa.

Clasificación de usuarios finales:Habituales. Suelen hacer consultas y/o actualizaciones de los datos como parte de su labor diaria.

Generalmente requieren utilizar menús previamente preparados que les faciliten su interrelación con la computadora.

Esporádicos. Son los que requieren accesar a los datos, igualmente para consultar y/o actualizar datos, pero esta no es su tarea principal, por lo que requieren aplicaciones sencillas pero potentes, ya que sus tareas exigen tiempos de respuesta reducidos.

M.C. Bertha López Azamar 43

Page 45: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.4 Sistemas de representaciónSistema de representación numérica: es un sistema de lenguaje que consiste en:

• un conjunto ordenado de símbolos (dígitos o cifras) • un conjunto de reglas bien definidas para las operaciones aritméticas de suma, resta,

multiplicación, división, etc.Sistemas de numeración: es el sistema que emplea un número determinado de símbolos

(dependiente de la base) para representar números.Se denomina base de un sistema, al número de posibles dígitos que se utilizan en dicho

sistema de numeración.Los números en un sistema de numeración consisten en una secuencia de dígitos que

pueden tener parte entera y parte fraccionaria, ambas separadas por una coma (o punto). La parte entera esta situada de izquierda a derecha de una coma de referencia.

El sistema más usual de representación numérica es el sistema posicional, donde cada dígito tendrá un valor determinado por la posición que ocupa (valor posicional). Los valores posicionales se representan en potencias de la base. Cada dígito del número es más significativo que el que se encuentra a su derecha, siendo el valor del número la suma acumulada de los productos de cada dígito por su peso.

Desde el año 2000 a.c., los seres humanos han contado utilizando 10 dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8, 9), a esto se le denomina "base decimal" o base 10 (sistema decimal). Valores posicionales del sistema decimal: Ejemplo:

Los sistemas de numeración usados actualmente en computación son:• Sistema binario – (base 2) ( 2 dígitos: 1, 0)• Sistema Octal – (base 8) (8 dígitos: 0 al 7)• Sistema Hexadecimal – (base 16) (16 dígitos: primeros 10 del 0 al 9, los restantes con

letras de A a F. A para 10, B para 11, así sucesivamente)Sin embargo, las civilizaciones antiguas, e incluso algunas aplicaciones actuales,

utilizaron y continúan utilizando otras bases numéricas: • Sexagesimal (60), utilizada por los Sumerios. Esta base se utiliza actualmente en

nuestro sistema de cronometraje, para los minutos y los segundos.• Vigesimal (20), utilizada por los mayas.• Duodecimal (12), utilizada en el sistema monetario del Reino Unido e Irlanda hasta

1971: una "libra" valía veinte "chelines", y un "chelín" valía doce "peniques". El actual sistema de cronometraje también se basa en doce horas (algo que se traduce en el uso que se le da en Norteamérica),

• Quinario (5), utilizado por los mayas.

M.C. Bertha López Azamar 44

Page 46: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.4.1 Introducción al Sistema binarioA finales de la década de 1930, Claude Shannon mostró que utilizando interruptores que

se encontraban cerrados para "verdadero" y abiertos para "falso", se podían llevar a cabo operaciones lógicas asignando el número 1 a "verdadero" y el número 0 a "falso". Este sistema de codificación de información se denominó binario y es la forma de codificación que permite el funcionamiento de las computadoras.

El sistema binario utiliza dos condiciones (representadas por los dígitos 0 y 1) para codificar información, a esto se le denomina “bit” (abreviado con la minúscula b y significa dígito binario)

Así, un número binario se compone de varios dígitos binarios (bit). Al bit de más a la derecha se le conoce como “bit menos significativo” (LSB) y al de más a la izquierda se le denomina “bit más significativo” (MSB). El bit es en si la unidad de información más pequeña que puede manipular una máquina digital, ya que se puede establecer con uno de dos estados: tanto con 1 como con 0. Con dos bits, se pueden obtener 4 condiciones diferentes (2x2):

Con 3 bits, se pueden obtener ocho condiciones diferentes (2x2x2):

0 0

0 1

1 0

1 1

Valor binario de 3 bits

Valor decimal

000 0

001 1

010 2

011 3

100 4

101 5

110 6

111 7

Con un grupo n de bits, es posible representar 2 n valores. (Y es lo que se tiene con los diferentes códigos binarios existentes.)Valores de los bits en la conversión de binario a decimalValores posicionales de los dígitos de un número binario:

Se observa que en un número binario, el valor de un bit depende de su posición, empezando desde la derecha. Como las decenas, centenas y millares en un número decimal, el valor de un bit se incrementa por dos a medida que va desde la derecha hacia la izquierda, observe nuevamente en la siguiente tabla: Posición (exponente) 7 6 5 4 3 2 1 0Base 20 27 26 25 24 23 22 21 20

Valor equivalente en decimal 128 64 32 16 8 4 2 1

M.C. Bertha López Azamar 45

Page 47: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Observe que siempre el valor del exponente de la derecha será elevado a 0 y hacia la izquierda va aumentando 1 dígito.

Para convertir una cadena binaria en un número decimal se debe multiplicar cada bit por su valor, y luego sumar los productos. Así tenemos que la cadena binaria 0101 en número decimal sería: 23 x 0 + 22 x 1 + 21 x 0 + 20 x 1= 8 x 0 + 4 x 1 + 2 x 0 + 1 x 1= 0 + 4 + 0 + 1= 5

Note que cualquier posición donde hay 0 dará 0, por lo tanto, al ubicar las posiciones y sus valores será mas fácil solamente hacer la suma de las posiciones donde hay un 1, sobre la tabla.De esta forma el equivalente del número binario 0101 se obtiene con:Numero binario 0 1 0 1

27 26 25 24 23 22 21 20

Valor 128 64 32 16 8 4 2 1

Y equivale a: 4+1 que da el valor decimal 5.NOTA: Sumar de izquierda a derecha o de derecha a izquierda es indiferente.

El equivalente del número binario 11111111 se obtiene con:Numero binario 1 1 1 1 1 1 1 1

27 26 25 24 23 22 21 20

Valor 128 64 32 16 8 4 2 1

Y equivale a: 128+64+32+16+8+4+2+1 que da el valor decimal 255.

Conversión de decimal a binarioUna forma de transformar de decimal a binario es la siguiente:

1. dividir el valor decimal de la izquierda entre 2 y el residuo sera o 0 ó 1, y el primer residuo es el LSB (bit de la derecha)

2. el cociente volverlo a dividir entre 2 y anotar el residuo a la izquierda del anterior,

3. repetir sucesivamente el paso 2 hasta que ya no haya más cociente. El ultimo residuo, será el MSB.

En caso de tener parte fraccionaria, esta se obtiene aparte, pero en vez de división, se realiza multiplicación por 2, siendo el entero del primer resultado el primer bit a la derecha del punto. Y así ir incluyendo hacia la derecha el resultado de las siguientes multiplicaciones de la parte fraccionaria. Hasta ya no tener fracción (llegar al 1)

Ejemplo: Pasar a binario el número decimal: 6.375.División cociente residuo6/2 3 0 Bit de menor peso entero3/2 1 1

M.C. Bertha López Azamar 46

Page 48: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1/2 0 1 Bit de mayor peso entero

El entero da 110División resultado Parte fraccionaria Parte entera de la

multiplicación0.375*2 0.75 0.75 0 Bit de mayor peso fraccionario0.75*2 1.5 0.5 10.5*2 1 1 bit de menor peso fraccionario

La fracción da: 011

El valor completo 6.375 = 110.011Otro ejemplo: convertir 4310 a binario:

Ahora bien, en cuanto a los bits que conforman una representación, en el sistema binario encontramos las siguientes agrupaciones básicas de bits:

Cantidad de bits que la formanNIBBLE 4BYTE 8WORD 16DOUBLE WORD 32QUADRUPLE WORD 64

El byte (abreviado con la mayúscula B) es una unidad de información compuesta por 8 bits. Se puede utilizar para almacenar, entre otras cosas, un carácter, como por ejemplo una letra o un número.

Agrupar números en cúmulos de 8 facilita su lectura (así como agrupar números en grupos de tres hace más legibles los millares cuando se trabaja en base decimal, por ejemplo, el número "1.256.245" se lee mejor que "1256245").

Por lo general, una unidad de información de 16 bits se denomina palabra (word). Una unidad de información de 32 bits se denomina palabra doble (o también, dword). Para un byte, el menor número posible es 0 (representado por ocho ceros: 00000000), y

el mayor es 255 (representado por ocho unos: 11111111), que permite la creación de 256 valores diferentes.

27 26 25 24 23 22 21 20 Equicale a128 64 32 16 8 4 2 10 0 0 0 0 0 0 0 01 1 1 1 1 1 1 1 255

M.C. Bertha López Azamar 47

Page 49: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Observaciones sobre las unidades de medida para el almacenamientoKilobytes y megabytes

Durante mucho tiempo, la informática fue una ciencia inusual ya que utilizaba diferentes valores para sus unidades, diferentes a las del sistema métrico (también llamado "sistema Internacional"). Los usuarios de computadoras aprendían que 1 kilobyte estaba compuesto por 1024 bytes. Por este motivo, en diciembre de 1998, la Comisión Electrotécnica Internacional (IEC) intervino en el tema. La lista siguiente incluye las unidades estandarizadas de la IEC:

• Un kilobyte (kB) = 1000 bytes • Un megabyte (MB) = 1000 kB = 1.000.000 bytes • Un gigabyte (GB) = 1000 MB = 1.000.000.000 bytes • Un terabyte (TB) = 1000 GB = 1.000.000.000.000 bytes

¡Advertencia! Algunos programas (e incluso algunos sistemas operativos) aún utilizan la notación anterior a 1998, es decir la siguiente:

Un kilobyte (kB) = 210 bytes = 1024 bytes

Un megabyte (MB) = 220 bytes = 1024 kB = 1.048.576 bytes

Un gigabyte (GB) = 230 bytes = 1024 MB = 1.073.741.824 bytes

Un terabyte (TB) = 240 bytes = 1024 GB = 1.099.511.627.776 bytes

El IEC también definió el kilo binario (kibi), al mega binario (mebi), al giga binario (gibi) y al tera binario (tebi). Se definieron de la siguiente manera:

• Un kibibyte (kiB) vale 210 = 1024 bytes • Un mebibyte (MiB) vale 220 = 1.048.576 bytes • Un gibibyte (GiB) vale 230 = 1.073.741.824 bytes • Un tebibyte (TiB) vale 240 = 1.099.511.627.776 bytes

En algunos idiomas, como el francés y el finlandés, la palabra byte no empieza con la letra "b", pero la mayor parte de la comunidad internacional prefiere el término en inglés "byte". Esto da las siguientes notaciones para kilobyte, megabyte, gigabyte, y terabyte: (kB, MB, GB, TB)

Observe el uso de la mayúscula B para distinguir Byte de bit.

1.4.2 Sistemas de codificación a binarioNo toda la información que maneja un sistema digital es numérica, por ello es

conveniente idear formas diferentes de representar (codificar) información diversa usando solamente ceros y unos.Código:

• Es la correspondencia que asigna a cada símbolo de un conjunto dado de números, una determinada correspondencia de otro conjunto, según reglas determinadas de conversión.

• Es un conjunto de combinaciones de bits que permite representar números, letras caracteres especiales, etc.

M.C. Bertha López Azamar 48

Page 50: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

• Esta formado por una serie de reglas que establecen cada una de las posibles combinaciones de bits.

Código Binario:

• Se denomina código binario porque utiliza 2 símbolos, el 0 y el 1.• Es un código utilizado para representar números, por lo que a veces se denomina

código binario natural.Los códigos pueden tener las siguientes características:

• Ponderado: el valor de cada bit depende de la posición que ocupe (peso).Un código binario es ponderado cuando a cada dígito binario, le corresponde un peso según su posición, esto es, cada palabra de código es la suma de los pesos cuyos dígitos son 1. Ej.: Binario natural.

• Continuo: si los números decimales consecutivos tiene representaciones adyacentes, es decir, varían en un único bit.

Palabra adyacente = palabras cuya distancia es 1Un código continuo es que dos palabras código consecutivas son adyacentes.

• Cíclico: si la última representación es adyacente a la primera.Código cíclico aquel que además de ser continuo, la primera palabra y la última también lo son.

Códigos continuos y cíclicos: código Gray(o código reflejado) y código JohnsonCódigos decimales codificados en binario (BCD) ponderados: BCD natural,

BCD AikenCódigos decimales codificados en binario (BCD) no ponderados: BCD exceso

tresCódigo no ponderado: código Gray

1.4.2.1 Desarrollo de las formas de representación de los números • Códigos Numéricos

• Decimal Codificado en Binario (BCD)• Código BCD Exceso-3• Código BCD 2421

• Código 2 de 5 (Biquinario)• Código Gray• Código Johnson

• Códigos Alfanuméricos• EBCDIC• ASCII• Unicode•

Decimal Codificado en Binario - Binary-coded decimal (BCD)En los códigos BCD cada cifra que representa a un dígito decimal (0, 1, ...8 y 9) se

representa con su equivalente binario en 4 bits (cuarteto) (esto es así porque 4 es el número de bits necesario para representar el 9, el número más alto cifrable en BCD).

M.C. Bertha López Azamar 49

Page 51: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

El más sencillo de los códigos BCD es el BCD8421 o BCD “natura”, y consiste simplemente en representar cada dígito decimal por su binario equivalente.Digito decimal BCD8421 Digito decimal BCD8421 Digito decimal BCD8421

0 0000 4 0100 8 10001 0001 5 0101 9 10012 0010 6 01103 0011 7 0111

Ejemplo: Expresar e 937.2510 en BCD.937.2510 = 1001 0011 0111 0010 0101 BCD

Ejemplo: Expresar en decimal el número N = (10010110010111) escrito en código BCD8421.separando de derecha a izquierda en grupos de 4: N=(10,0101,1001,0111)BCD = 259710

El BCD8421 es un sistema numérico usado en sistemas computacionales y electrónicos para codificar números enteros positivos y facilitar las operaciones aritméticas, es un código pesado debido a que cuenta con un orden específico (8421).

El BCD es muy común en sistemas electrónicos donde se debe mostrar un valor numérico, especialmente en los sistemas digitales no programados (sin microprocesador o microcontrolador). Utilizando el código BCD, se simplifica la manipulación de los datos numéricos que deben ser mostrados por ejemplo en un visualizador de siete segmentos. Esto lleva a su vez una simplificación en el diseño físico del circuito (hardware). Si la cantidad numérica fuera almacenada y manipulada en binario natural, el circuito sería mucho más complejo que si se utiliza el BCD.

IBM utilizó los términos decimal codificado en binario y BCD para los códigos binarios de seis bits con el que representaron números, letras mayúsculas y caracteres especiales. Una variante del BCD fue utilizada en la mayoría de las primeras computadoras de IBM, incluyendo IBM1620 e IBM 1400. Con la introducción de System/360, el BCD fue substituido por el EBCDIC de ocho bits.

Las posiciones de los bits, en el BCD de seis bits, generalmente fueron etiquetadas como B, A, 8, 4, 2 y 1. Para codificar los dígitos numéricos, A y B eran cero. La letra A fue codificada como (B,A,1).

En general existen variaciones del BCD, observe la tabla:

CÓDIGO 2 DE 5 (BIQUINARIO)El código 2 de 5 es un código multibit no ponderado, es decir, los códigos no pueden

obtenerse usando una expresión polinomial; este código está diseñado para la detección de errores en diferentes tipos de cálculos y operaciones con registros de corrimiento. Se usan cinco bits para representar los dígitos decimales (0-9). Como el nombre lo implica sólo dos de los cinco bits son 1.

Digito decimal Codigo 2 de 5 Digito decimal Codigo 2 de 5 Digito decimal Codigo 2 de 50 00011 4 01010 8 101001 00101 5 01100 9 110002 00110 6 100013 01001 7 10010

Ejemplo: Expresar e 93710 en 2 de 5

M.C. Bertha López Azamar 50

Page 52: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

93710 = 11000 01001 10010 2 de 5 Ejemplo: Expresar en decimal el número N = (10010110010100) escrito en código 2 de 5 .

separando de derecha a izquierda en grupos de 5: N=(1001,01100,101002 de 5 )= 35810

Código GrayEste es un código binario no ponderado y tiene la propiedad de que los códigos para

dígitos decimales sucesivos difiere en un sólo bit. Al código Gray también se le llama autorreflejado, o cíclico., puesto que por ejemplo, para obtener el código de 5 bits a partir del de 4 bits basta con repetir simétricamente (“reflejar” las 16 combinaciones y añadir un 0 a las 16 primeras y un 1 a las 16 siguientes.

Código gray con 2 bits Código gray con 3 bits

Decimal Código gray0 001 012 113 10

Decimal Código gray0 0001 0012 0113 0104 1105 1116 1017 100

En la siguiente tabla se muestra dicho código para los números del 0 al 15.Dígito decimal Codigo Gray Dígito decimal Codigo Gray

0 0000 8 11001 0001 9 11012 0011 10 11113 0010 11 11104 0110 12 10105 0111 13 10116 0101 14 10017 0100 15 1000

Observe que la formación se realiza por reflexión del código n-1 bits (menos significativo), repitiendo simétricamente las combinaciones de éste. Se añade a la izquierda un bit (0 en la parte superior de la tabla y 1 en la reflejada.

Para hacer la conversión de binario natural a Gray considere lo siguiente:1. El bit más significativo (MSB) del código Gray y del binario natural, son iguales.2. El resto de bits se obtienen comparando cada par de adyacentes. Sigue la siguiente

norma:3. si son iguales el bit es 04. si son diferentes el bit es 1

Ejemplo: convertir a código Gray el número binario 1011101

M.C. Bertha López Azamar 51

Page 53: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Para convertir de Gray a binario natural, considere lo siguiente:1. El bit más significativo del número en binario natural y del código Gray son iguales.2. El resto de bits se obtiene comparando el bit en binario natural generado, con el siguiente

bit en código Gray adyacente.3. La comparación sigue la misma norma anterior.

Ejemplo: convertir a binario natural el siguiente código Gray: 1110011

Ejemplo: convertir a binario natural el siguiente código Gray: 1100110

Código JohnsonEs un código binario cíclico, continuo y progresivo. El número de valores que se pueden

representar es 2n (donde n es el número de bits), por lo tanto, por ejemplo, un código de 4 bits permite obtener un total de 8 valores.

En este código el número de unos aumenta y disminuye progresivamente de una combinación a la siguiente.

Código Johnson de 5 bits:

M.C. Bertha López Azamar 52

Page 54: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Códigos AlfanuméricosPara representar letras y otro tipo de caracteres se utilizan otros códigos que necesitan

más bits que los códigos numéricos anteriores. Para manejar estos datos usando dispositivos digitales, cada símbolo debe estar representado por un código binario.

Los códigos alfanuméricos más extendidos son:• código ASCII (American Standard Code forInformation Interchange) que son

de 7 u 8 bits codifica los diferentes símbolos queen el mismo se pueden utilizar • código EBCDIC (Extended Binary-Coded DecimalInterchange Code).

Estos códigos son utilizados a menudo en sistemas informáticos y en computadoras. Código ASCII

Pronunciado generalmente [áski] o [ásci]. Es acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información.

ASCII es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.

ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio).

M.C. Bertha López Azamar 53

Page 55: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto como el teclado. No deben confundirse los códigos “ALT+número de teclado” con los códigos ASCII.

Las computadoras solamente entienden números. El código ASCII es una representación numérica de un carácter como ‘a’ o ‘@’.1

Como otros códigos de formato de representación de caracteres, el ASCII es un método para una correspondencia entre cadenas de bits y una serie de símbolos (alfanuméricos y otros), permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento. El código de caracteres ASCII2 (o una extensión compatible) se usa casi en todos las computadoras, especialmente con computadoras personales y estaciones de trabajo. El nombre más apropiado para este código de caracteres es "US-ASCII".3

En resumen, el código ASCII consta entre otros, de los siguientes grupos de caracteres:

El código ASCII reserva los primeros 32 códigos (numerados del 0 al 31 en decimal) para caracteres de control: códigos no pensados originalmente para representar información imprimible, sino para controlar dispositivos (como impresoras) que usaban ASCII. A continuación se muestran los códigos para cada caracter.

M.C. Bertha López Azamar 54

Page 56: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

El código del carácter espacio, designa al espacio entre palabras, y se produce normalmente por la barra espaciadora de un teclado. Los códigos del 33 al 126 se conocen como caracteres imprimibles, y representan letras, dígitos, signos de puntuación y varios símbolos.

M.C. Bertha López Azamar 55

Page 57: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Ejemplo: la palabra "Start" se representa en código ASCII como sigue1010011 1110100 1100001 1110010 1110100S t a r t

A medida que la tecnología informática se difundió a lo largo del mundo, se desarrollaron diferentes estándares y las empresas desarrollaron muchas variaciones del código ASCII para facilitar la escritura de lenguas diferentes al inglés que usaran alfabetos latinos. Se pueden encontrar algunas de esas variaciones clasificadas aunque en ocasiones el término se aplica erróneamente para cubrir todas las variantes, incluso las que no preservan el conjunto de códigos de caracteres original ASCII de siete bits.

Ejercicio: Descifre el siguiente mensaje utilizando el código ASCII:

M.C. Bertha López Azamar 56

Page 58: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

01000101 01110011 01110100 01101111 01111001 00100000 01100110 01100101 01101100 01101001 01111010 00100000 01100100 01100101 00100000 01100101 01110011 01110100 01110101 01100100 01101001 01100001 01110010 00100000 01100101 01101110 00100000 01101100 01100001 00100000 01010101 01001110 01010000 01000001

Puede consultar las siguientes páginas para ver unos convertidores de texto a binario http://www.appsmashups.com/convertir-texto-a-codigo-binario/ ó http://www.feedati.com/binario/

Código EBCDICExtended Binary Coded Decimal Intechange Code, es un código binario de 8 bits usado

por computadoras mainframe IBM. EBCDIC representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter esta compuesto por un byte(8bits), por eso define un total de 256 caracteres. Existen muchas versiones (codepages) de EBCDIC con caracteres diferentes, respectivamente sucesiones diferentes de los mismos caracteres.Claves EBCDIC

Espacio en blanco 0 1 0 0 0 0 0 0 La letra Ñ se representa 0 1 1 0 1 0 0 1Letras mayúsculas de la A a la Z: se dividen en tres grupos (A-I), (J-R), (S-Z) y en las primeras cuatro posiciones se identifica el grupo al cual pertenece la letra y en las restantes cuatro posiciones el dígito correspondiente a la posición de la letra en el grupo.

A - 1 1 0 0 0 0 0 1B - 1 1 0 0 0 0 1 0C - 1 1 0 0 0 0 1 1D - 1 1 0 0 0 1 0 0E - 1 1 0 0 0 1 0 1F - 1 1 0 0 0 1 1 0G - 1 1 0 0 0 1 1 1H - 1 1 0 0 1 0 0 0I - 1 1 0 0 1 0 0 1J - 1 1 0 1 0 0 0 1K - 1 1 0 1 0 0 1 0L - 1 1 0 1 0 0 1 1M - 1 1 0 1 0 1 0 0N - 1 1 0 1 0 1 0 1O - 1 1 0 1 0 1 1 0P - 1 1 0 1 0 1 1 1Q - 1 1 0 1 1 0 0 0R - 1 1 0 1 1 0 0 1S - 1 1 1 0 0 0 1 0T - 1 1 1 0 0 0 1 1U - 1 1 1 0 0 1 0 0V - 1 1 1 0 0 1 0 1W - 1 1 1 0 0 1 1 0X - 1 1 1 0 0 1 1 1Y - 1 1 1 0 1 0 0 0Z - 1 1 1 0 1 0 0 1

Los dígitos del cero (0) al nueve (9): se identifican con un uno en las primeras cuatro posiciones y en las restantes cuatro posiciones el dígito en binario.

0 - 1 1 1 1 0 0 0 01 - 1 1 1 1 0 0 0 12 - 1 1 1 1 0 0 1 03 - 1 1 1 1 0 0 1 14 - 1 1 1 1 0 1 0 05 - 1 1 1 1 0 1 0 16 - 1 1 1 1 0 1 1 07 - 1 1 1 1 0 1 1 18 - 1 1 1 1 1 0 0 09 - 1 1 1 1 1 0 0 1

M.C. Bertha López Azamar 57

Page 59: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.4.2.2 Los métodos de cálculo.En el sistema binario se pueden realizar operaciones simples tales como adición,

sustracción y multiplicación. (En la materia analizaremos solo suma y multiplicación).Adición (suma) en binario

En el sistema binario la suma sigue las mismas reglas que en el sistema decimal. Se comienza sumando del bits menos significativo (se encuentra a la derecha) al más significativo (a la izquierda). Cuando la suma de dos bits en la misma posición es más grande que el valor mayor de la unidad (1), entonces se lleva el valor al siguiente lugar (se transporta al bit de la siguiente posición). Observe las reglas siguientes:

0 + 0 = 0

1 + 0 = 1

0 + 1 = 1

1 + 1 = 0 y llevamos 1

Ejemplo:

0 1 1 0 1+ 0 1 1 1 0 1 1 0 1 1

Observe el 3er bir (de derecha a izquierda)

0 1 1 0 1

+ 0 1 1 1 0

1 1 0 1 1

1 + 1 = 0 y llevamos 1, se coloca el cero en la tercera posición y no olvidar que hay un 1 pendiente para la suma en la cuarta posición

0 1 1 0 1

+ 0 1 1 1 0

1 1 0 1 1

Ahora observe la cuarta posición, se tiene 1 + 1 = 0 y llevamos 1, pero como aún se tiene el 1 que se lleva de la posición tres, entonces se suma 0 + 1 = 1 (el 1 es el que se llevaba de la posición tres), el 1 que resulta es el que se coloca en la posición cuatro. El 1 que se llevaba en la primera suma se mantiene para la posición cinco.

0 1 1 0 1

+ 0 1 1 1 0

1 1 0 1 1

Ahora bien, 0 + 0 = 0, pero no olvidando el 1 que se llevaba, se le suma al 0 y da como resultado 1, y este valor de bit es colocado en la quinta posición.

Otro ejemplo:

1 1 1 1 1+ 1 1 1 1 1 1 1 1 1 1 0

M.C. Bertha López Azamar 58

Page 60: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Multiplicación en binarioLa tabla de multiplicación en el sistema binario es simple:

0 x 0 = 0

1 x 0 = 0

0 x 1 = 0

1 x 1 = 1

La multiplicación se realiza calculando un producto parcial para cada múltiplo (sólo los bits que no contiene 0 darán un resultado que no contenga ceros). Cuando el bit del múltiplo es cero, el producto parcial es nulo; cuando es equivalente a uno, el producto parcial se forma con el multiplicando, alternado un número X de veces, donde X es igual al peso del múltiplo del bit.

Y como en la multiplicación decimal, al final se suman los resultados de cada posición, respetando lo visto en la suma.Por ejemplo:

0 1 0 1 multiplicandox 0 0 1 0 múltiplo 0 0 0 0 0 1 0 1 0 0 0 0 0 0 1 0 1 0

M.C. Bertha López Azamar 59

Page 61: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.4.3 Sistematización del razonamientoLas mejoras sobre métodos computacionales (de cómputo o cálculo) se sucedieron de

modo espaciado a lo largo de siglos en diferentes partes del mundo.La informática es una disciplina cuyas raíces que pueden encontrarse en las

civilizaciones griegas babilónicas o egipcias. Encuentra sus raíces en dos cuestiones que han llamado la atención a los pensadores durante miles de años: el problema de la sistematización del razonamiento y el problema para conseguir un cálculo más preciso y eficaz. La computadora digital es un avance reciente en esta historia.

La antigua Grecia realizó una contribución enorme en la sistematización del razonamiento. Durante el periodo de 600 AC hasta 300 AC, en Grecia se desarrollaron los principios formales de las matemáticas. A este periodo se le conoce como periodo clásico, donde sus principales representantes son Platón (427-347 AC), Aristóteles (384-332 a.C.) y Euclides.

Platón introdujo las ideas o abstracciones; Aristóteles presentó el razonamiento deductivo y sistematizado en “Organón” y Euclides es el personaje que mayor influencia ha tenido en las matemáticos a lo largo de toda la historia, al establecer el método axiomático.

En ”Elementos”, Euclides distingue entre principios (definiciones, axiomas y postulados) y teoremas (deducidos a partir de los principios). Con tan solo 5 postulados, Euclides organizó todo el conocimiento matemático de su época con un riguroso método deductivo. Es decir, en lugar de realizar experimentos con círculos y analizar los datos, los matemáticos griegos definieron el concepto de círculo y sus propiedades básicas (axiomas) y derivaron las propiedades de éstos utilizando el razonamiento formal.

También consiguieron grandes avances en la clarificación de los criterios a seguir para realizar un razonamiento correcto. El ejemplo que sigue, se debe a Aristóteles:

TODA PERSONA ES MORTAL, SOCRATES ES UNA PERSONA

ENTONCES SOCRATES ES MORTALEsta forma de razonamiento recibe el nombre de modus ponens (si entonces)

SI ALGO ES UNA PERSONA, ENTONCES ES MORTAL.SOCRATES ES UNA PERSONA. ENTONCES, SOCRATES ES MORTAL.

Un modo de razonamiento ligeramente diferente, denominado modus tollens, se ilustra a continuación:

TODAS LAS PERSONAS SON MORTALES.ZEUS NO ES MORTAL.

ENTONCES, ZEUS NO ES UNA PERSONA.Este criterio de razonamiento es utilizado también en las matemáticas y en el

razonamiento actual.Los trabajos de Aristóteles sentaron las bases fundamentales de la lógica formal; de

hecho, no se produjeron avances revolucionarios en este campo hasta el siglo XVIII.Los babilonios y egipcios no fueron razonadores sistemáticos como los griegos. En su

lugar desarrollaron una gran cantidad de métodos de cálculo, con la intención de agilizarlos, basados fundamentalmente en el métodos de prueba-y-error. Por ejemplo, obtuvieron tablas de multiplicar, tablas de cuadrados y raíces, tablas de cubos y raíces cúbicas, tablas exponenciales

M.C. Bertha López Azamar 60

Page 62: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

para poder obtener el interés compuesto… encontraron incluso una fórmula para resolver ecuaciones cuadráticas. Sin embargo, al contrario que los griegos, los babilonios y los egipcios no desarrollaron métodos para analizar la corrección de sus resultados.

La numeración decimal de posición que utilizamos procede del sistema de numeración hindú quienes inventaron el cero, cerca del año 500 y lo denominaron “sunya”, que quiere decir “vacío”. Esto fue un gran avance ya que permitía escribir números como el 507 sin que se confundiese con el 57, ya que la forma utilizada anteriormente para escribir 507 era dejando un espacio en blanco (5 7). Este símbolo de la nada fue recogido por los árabes hacia el s. VIII, quienes lo denominaron “céfer”, que también quiere decir “vacío”. De “céfer” derivan tanto “cero” como “cifra”.

Recordemos que la numeración romana, utilizada entonces en occidente, no es posicional (1 es I, 10 es X y 100 es C). Por ello para efectuar las operaciones aritméticas, los griegos, los etruscos y los romanos no utilizaron sus cifras, sino ábacos (que significa “bandeja, mesa o tablilla”). Las piedras utilizadas se llamaban “cálculos” y se parecían mucho a las piedras que aparecen a veces en los riñones y que llamamos “cálculos renales”.

El término “algoritmo” deriva del nombre del matemático persa Abu Ja’far Mohammed ibn Musa al-Khowarizmi, que vivió alrededor del 825 después de Cristo. La acepción original fue algorism y hacia referencia al proceso de prueba de cálculos realizados utilizando números arábigos, que constituía el tema central del libro de al-Kowarizmi.

Fue un matemático italiano, Leonardo Fibonacci (1170-1240), el primero en escribir sobre los números arábigos en occidente. Tuvo la ocasión de viajar ampliamente por el norte de África. Allí aprendió la numeración árabe y la notación posicional con el cero. Fibonacci escribió un libro (1202, Liber Abaci) que sirvió para introducir los números arábigos en Europa, aunque los romanos aún se mantuvieron en vigor durante tres siglos más.

El matemático italiano Geronimo Cardano (1501-1575), fue el que demostró, en 1545, que las deudas y los fenómenos similares se podían tratar con números negativos. Hasta ese momento, los matemáticos habían creído que todos los números tenían que ser mayores que cero. Pero eso es ya otra historia.

A finales del siglo XVI y durante el siglo XVII se produjo un gran desarrollo del álgebra y las matemáticas. Hacia 1580 François Viéte (1540-1603) comenzó a utilizar letras para simbolizar valores desconocidos y con ello estableció las bases del álgebra.. En 1614, John Napier (1550-1616) inventó los logaritmos (de “logos” y “aritmos” - conocimiento de los números), Edmund Gunter (1581-1626) inventó un precursor de la regla de cálculo en 1620, Galileo (1563-1642) entó las bases de la formulación matemática, René Descartes (1596-1650) descubrió la eometría analítica...

Haciendo una retrospectiva, podemos encontrar ejemplos de estos modos de pensar en la historia de la informática. Los antiguos griegos utilizaron la teoría cuando desarrollaron el método axiomático y estudiaron los criterios formales del razonamiento. También utilizaron la abstracción cuando tomaron el razonamiento ordinario, observaron sus patrones y formularon otros nuevos. Los babilonios y egipcios, por el contrario, prefirieron la abstracción y el diseño a la teoría. Utilizaron la abstracción para definir estándares de problemas, tales como el interés compuesto y utilizaron el diseño al utilizar métodos que resolvían el problema.

M.C. Bertha López Azamar 61

Page 63: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

1.5 Perspectiva Actual

1.5.1 Influencia del uso masivo de InternetNota: Ver anexo 1: Influencia del uso masivo de Internet (archivo: Anexo1_

InfluenciaDelUsoMasivoDeInternet.pdf). En este documento se reúnen varios artículos, publicados en línea. Se separa para respetar específicamente las referencias, ya que son tomados tal cual.

Actividad: Leer el anexo 1 y analizar los diferentes aspectos que se mencionan. Se trabajará en tres debates:

• El primer debate abarcará del inicio hasta antes de tocar redes sociales.• El segundo debate tratará exclusivamente sobre redes sociales • El último debate se debatirá sobre la adicción a Internet y el estrés virtual.

1.5.2 Aplicación de la informática (en el área de la salud)Actividad: Para este tema debe realizar una investigación en una clínica u hospital,

donde indagará sobre los aspectos siguientes:• ¿en sus labores diarias emplea la computadora?• ¿qué uso le da a la computadora?• ¿cuentan con equipos especializados donde se emplee el computo?• ¿usa la computadora para automatizar sus actividades?• ¿como logra la automatización?• ¿que software utiliza para llevar a cabo sus actividades?• ¿procesa información estadística?

Tome en cuenta solo como referencia las preguntas anteriores, y formule nuevas.El objetivo es obtener referencias de lo que se esta utilizando en la actualidad en los

centros de salud, clínicas, hospitales, para comentarlo en la clase y aclarar el panorama del campo laboral tentativo, y definir porqué es importante aprender a utilizar las herramientas tecnológicas y estar actualizados con respecto a los temas de computación.

M.C. Bertha López Azamar 62

Page 64: Universidad del Papaloapan Campus Tuxtepec Compilación ...blopez/Computacion/Apuntes/Computacion... · Imagen tomada de Ensayo escrito en 2010 por Josefina Galeano para la materia

Compilación para materia COMPUTACIÓN

Referencias➢ http://es.wikipedia.org/ ; se extrajeron múltiples conceptos➢ http://www.monografias.com/trabajos15/computadoras/computadoras.shtml ➢ http://es.kioskea.net/contents/base/binaire.php3 ➢ http://www.monografias.com/trabajos/histocomp/histocomp.shtml ➢ Estaciones de trabajo; http://www.monografias.com/trabajos41/estaciones-de-

trabajo/estaciones-de-trabajo.shtml➢ Estaciones de trabajo; http://html.rincondelvago.com/estaciones-de-trabajo.html➢ Diferentes tipos de computadoras; http://www.icono-computadoras-pc.com/tipos-de-

computadoras.html➢ http://www.monografias.com/trabajos/histocomp/histocomp.shtml ➢ http://www.tecnotopia.com.mx/computadoras/eramecanica.htm ➢ http://www.angelfire.com/de/jbotero/co/cohistoria.html ➢ http://www.compuclasico.com/articulos.php?Enlace=evolucion/evolucion03 ➢ http://www.computerhistory.org ➢ http://www.santiagokoval.com/2010/08/21/la-maquina-tabuladora-de-hollerith-y-el-

inicio-de-la-informatica/➢ http://history-computer.com➢ http://www.dma.eui.upm.es/historia_informatica/Doc/IndMaq.htm➢ http://es.wikipedia.org/wiki/Microprocesador ➢ http://www.xenciclopedia.com/post/Informatica/Que-es-la-informatica-%28concepto

%29.html➢ http://www.definicionabc.com/tecnologia/informatica.php➢ http://computacioneinformatica.blogspot.es/➢ Rodolfo Quispe-Otazu. ¿Que es la Computacion?. Blog de Rodolfo Quispe-Otazu

[Internet]. Febrero 2007. Disponible en: http://www.rodolfoquispe.org/blog/que-es-la-computacion.php

➢ http://iesmachado.org/web insti/depart/electr/apuntes/files/sti/diurno/curso1/arquitectura/Tema 1. SISTEMAS DE NUMERACION.pdf

➢ http://www.uv.mx/rrojano/arquitectura_uno/clase8.pdf ; Sistemas numéricos; MIA José Rafael Rojano Cáceres

➢ pdf con códigos binarios http://lc.fie.umich.mx/~jrincon/elec3-cap3.pdf➢ http://www.uned.es/ca-bergara/ppropias/Morillo/web_etc_I/transp_aritm_codif.pdf ➢ http://es.scribd.com/doc/84983654/CODIGOS-BINARIOS ➢ http://html.rincondelvago.com/codigo-binario-en-sistemas-digitales.html ➢ http://guimi.net/blogs/hiparco/breve-historia-de-la-informatica-i/ ➢ http://books.openlibra.com/pdf/G-Historia_de_la_Computacion.pdf

M.C. Bertha López Azamar 63