Informática Médica I

67
Inform átic a Médica I INFORMATICA Introducción Consideramos a la informática como la ciencia que se ocupa del tratamiento de la información. Y entendemos por “tratamiento de la información” todas las operaciones que podemos realizar con la información, desde su obtención hasta su difusión, pasando por el almacenamiento, su organización, la conversión de sus formatos, su transmisión y su rápida recuperación, así como su permanente actualización. De tal manera que son diversas las operaciones que realizamos con la información. En resumen, estas pueden ser: - Almacenamiento - Organización - Conversión - Transferencia - Reproducción - Recuperación - Actualización - Representación Ha sido necesario crear una ciencia especial cuyo objeto de estudio sea la información por sí misma, debido la importancia capital que tiene en el desarrollo de la especie humana. La importancia última que tiene la información puede resumirse en el hecho de que solo ella nos permite tomar decisiones, y nada hay más importante en la vida que el saber tomar decisiones adecuadas, para lo cual es imprescindible tener información. Para tomar buenas decisiones debemos contar con información de calidad, es decir que sea: - Confiable - Segura - Oportuna - Actualizada - Completa - Entendible - Manejable Por otra parte este tratamiento de la información, omnipresente en todas las actividades humanas, lo podemos realizar nosotros directamente o con la ayuda de determinados instrumentos y máquinas, especialmente computadoras. La manera de realizar el tratamiento de la información ha evolucionado a lo largo del tiempo. Actualmente podemos distinguir tres tipos de tratamiento: - Tratamiento manual: Uso que realizamos directamente las personas. A menudo utilizamos herramientas simples como cuadernos, agendas, directorios, tarjeteros, archivadores, etc. El empleo de señales luminosas y banderas son también ejemplos de “tratamiento” de la información ya que transmiten información. Consideremos también las señales de tránsito. - Tratamiento mecánico: hoy se realiza con ciertos dispositivos eléctricos como agendas electrónicas, aunque en épocas recientes se empleaban numerosos aparatos como archivadores automáticos, clasificadoras de tarjetas, máquinas de escribir, etc. - Tratamiento automático: se realiza con computadoras, y debido a su gran capacidad ha surgido una ciencia que se ocupa del tratamiento de la información por computadora, es decir, la información automatizada: la informática. Informática Médica I 1

description

Informática Médica

Transcript of Informática Médica I

Page 1: Informática Médica I

In f o r m á t i c a Mé d i c a I

INFORMATICA

IntroducciónConsideramos a la informática como la ciencia que se ocupa del tratamiento de la información. Y entendemos por “tratamiento de la información” todas las operaciones que podemos realizar con la información, desde su obtención hasta su difusión, pasando por el almacenamiento, su organización, la conversión de sus formatos, su transmisión y su rápida recuperación, así como su permanente actualización. De tal manera que son diversas las operaciones que realizamos con la información. En resumen, estas pueden ser:

- Almacenamiento- Organización- Conversión- Transferencia- Reproducción- Recuperación- Actualización- Representación

Ha sido necesario crear una ciencia especial cuyo objeto de estudio sea la información por sí misma, debido la importancia capital que tiene en el desarrollo de la especie humana. La importancia última que tiene la información puede resumirse en el hecho de que solo ella nos permite tomar decisiones, y nada hay más importante en la vida que el saber tomar decisiones adecuadas, para lo cual es imprescindible tener información. Para tomar buenas decisiones debemos contar con información de calidad, es decir que sea:

- Confiable- Segura- Oportuna- Actualizada- Completa- Entendible- Manejable

Por otra parte este tratamiento de la información, omnipresente en todas las actividades humanas, lo podemos realizar nosotros directamente o con la ayuda de determinados instrumentos y máquinas, especialmente computadoras.

La manera de realizar el tratamiento de la información ha evolucionado a lo largo del tiempo. Actualmente podemos distinguir tres tipos de tratamiento:

- Tratamiento manual: Uso que realizamos directamente las personas. A menudo utilizamos herramientas simples como cuadernos, agendas, directorios, tarjeteros, archivadores, etc. El empleo de señales luminosas y banderas son también ejemplos de “tratamiento” de la información ya que transmiten información. Consideremos también las señales de tránsito.

- Tratamiento mecánico: hoy se realiza con ciertos dispositivos eléctricos como agendas electrónicas, aunque en épocas recientes se empleaban numerosos aparatos como archivadores automáticos, clasificadoras de tarjetas, máquinas de escribir, etc.

- Tratamiento automático: se realiza con computadoras, y debido a su gran capacidad ha surgido una ciencia que se ocupa del tratamiento de la información por computadora, es decir, la información automatizada: la informática.

In f o r m á t i c a Méd i c a I 1

Page 2: Informática Médica I

In f o r m á t i c a Mé d i c a I

La INFORMÁTICA es la ciencia que busca la máxima eficiencia en el tratamiento de la información mediante el empleo de computadoras. Su nombre deriva de la fusión de los términos “información” y “automática”. Cada actividad humana utiliza un determinado tipo de información y necesita tratarla de manera específica:

- Un comerciante trabaja con productos, precios, clientes...- Un arquitecto manipula fórmulas, planos, espacios geométricos, etc.- Un abogado trabaja con textos y documentos diversos- Un ejecutivo prepara exposiciones, cuadros, gráficos- Un publicista manipula imágenes, videos, sonidos, etc.- Una secretaria prepara correspondencias, cartas, faxes, citas, mensajes, etc.

En cada caso la informática busca el sistema de información que facilite el trabajo de estas personas en particular. La informática debe concentrarse en resolver los problemas y las necesidades de cada tipo de profesional respecto del manejo de su información.

Los sistemas informáticos de los que se ocupa la Informática están integrados por el conjunto de máquinas, programas informáticos y técnicas de trabajo que se utilizan para procesar unos datos concretos. Recordemos que la información adquiere diversos formatos y tiene distinta representación. Por ello la informática se vuelve cada vez más compleja y amplia, ya que debe abordar aspectos muy diversos, tanto de la naturaleza misma de la información como del uso específico que determinadas personas harán de ella. Veamos ahora parte por parte algunos de estos elementos básicos de la informática.

LAS COMPUTADORAS (HARDWARE)

Conceptos básicos.- Un COMPUTADOR es en realidad un conjunto de pequeñas “máquinas” intercomunicadas entre sí, capaces de realizar un tratamiento automático de la información siguiendo las instrucciones de un programa alojado en su memoria.

Por tanto, las computadoras no son unos aparatos simples, están integrados por un conjunto de dispositivos que trabajan de manera sincronizada. El conjunto de elementos físicos que integran un COMPUTADOR se denomina HARDWARE.

Tipos de computadoras.- Según su capacidad de memoria y la velocidad con la que procesan la información las computadoras se clasifican en tres grupos:

- GRANDES COMPUTADORAS (main frames, servidores). Computadoras de grandes dimensiones que gestionan grandes volúmenes de información a alta velocidad y pueden servir simultáneamente a muchos usuarios. Los usan las grandes empresas y centros de búsqueda.

- MINI COMPUTADORAS (PC, desktop, laptop).- Tienen una capacidad y una velocidad de trabajo alta pero menor que los main frames. Su volumen y el número de posibles usuarios también es menor.

- MICROCOMPUTADORAS (Palm, Tablet PC, Pocket PC). Pequeñas computadoras empleadas por un único usuario, pero con buena capacidad de trabajo y velocidad de proceso.

In f o r m á t i c a Méd i c a I 2

Page 3: Informática Médica I

In f o r m á t i c a Mé d i c a I

Características de las computadoras. Las computadoras son máquinas automáticas que realizan un tratamiento de la información (cálculo, copia, ordenación...) siguiendo las instrucciones de unos programas y sin necesidad de una continua intervención humana. Entre sus características podemos destacar:

- Son programables. Ejecutan las instrucciones que reciben a través de un programa.

- Versatilidad. Podemos realizar diversos trabajos: escribir cartas, dibujar planos, controlar otras máquinas, explicar una lección, jugar a ajedrez...

- Interactividad. Mantienen diálogos con los sus usuarios y actúan en función de sus ordenes y acciones.

- Capacidad d e almacenar. Almacenan grandes cantidades de información en unos discos muy pequeños.

- Rapidez. Hacen los trabajos con más rapidez que las personas... Y no suelen equivocarse.

Elementos de una computadora.- Se designan con el nombre genérico de HARDWARE y se agrupan en dos:

- La unidad central, que procesa la información.

- los periféricos, a través de los cuales entra la información al COMPUTADOR y éste comunica los resultados de su proceso a los usuarios.

LA UNIDAD CENTRAL DE PROCESO (CPU)

La UNIDAD CENTRAL DE PROCESO (CPU) almacena y ejecuta los programas que se les introduce en la memoria y controla el funcionamiento general del COMPUTADOR. Su potencia viene determinada por los siguientes factores:

- La capacidad de memoria.- La rapidez en procesar datos.- La rapidez con que se comunica internamente y con los demás componentes- Los periféricos que puede controlar.- El sistema operativo que emplee

Debido a la naturaleza dicotómica de las computadoras, integrados básicamente por circuitos biestables (que sólo son capaces de conocer la existencia o la ausencia de electricidad o magnetismo en ellos), la Unidad Central sólo puede procesar la información que se presente en un lenguaje binario, es decir, atomizada en bits. Por eso cualquier carácter: letra, dígito, signo... que introducimos en el COMPUTADOR, por ejemplo desde el teclado, será transformado en un byte (tira de bits) antes de ser transmitido a la Unidad Central. De esta manera el COMPUTADOR trabajará internamente con bytes y sólo cuando tenga que presentar un resultado al usuario los convertirá nuevamente en caracteres visualizables a través de la pantalla o la impresora .

Los dispositivos que integran la Unidad Central de Proceso (CPU) son:

- Memoria interna (o memoria principal) Es donde se almacenan los programas que se están ejecutando y los datos relacionados con ellos. Se puede diferenciar:

- Memoria ROM. Contiene programas y datos indispensables para el COMPUTADOR y que el usuario no puede modificar.

In f o r m á t i c a Méd i c a I 3

Page 4: Informática Médica I

In f o r m á t i c a Mé d i c a I

- Memoria RAM. Es una memoria volátil donde se sitúan los programas y los datos con los que es trabaja. Según su ubicación distinguimos entre memoria convencional, alta y extendida

- Memoria de configuración. También usa una memoria volátil pero conserva su contenido alimentada por una batería. Almacena parámetros de configuración, la hora y la fecha.

La memoria nos la podemos imaginar como una gran parrilla de celdas ordenadas donde cada carácter almacenado, transformado en byte, ocupa una de estas celdas. Estas celdas se llaman registros de memoria y tienen un número de orden que constituye se dirección.

La capacidad de memoria de un COMPUTADOR ve determinada por los registros que tiene, es decir, por los bytes que puede almacenar. Para medirla se utilizan las unidades:

- Kilobytes = 1.024 bytes (se consideran 1.000 bytes)

- Megabytes = 1.000 Kbytes

- Gigabytes = 1.000 Mbytes = 1.000.000 Kbytes

- Terabytes = 1.000 Gbytes = 1.000.000 Mbytes .

- Unidad central de proceso (Central Processing Unit, CPU) incorpora la Unidad Aritmético-Lógica (UAL) y está integrada generalmente por un microprocesador y es la que ejecuta los programas y controla el funcionamiento de todo el sistema.

Las principales cualidades de una Unidad Central han de ser la fiabilidad y la rapidez. Esta última dependerá de los bits que pueda procesar el microprocesador simultáneamente en sus registros y de la frecuencia del su reloj interno. Las computadoras actuales pueden trabajar a una frecuencia superior a 3 Ghz

- Controlador de periféricos. Es el encargado de controlar el funcionamiento de los periféricos que están conectados a la Unidad Central del COMPUTADOR: teclado, pantalla, impresora, módems, periféricos de almacenamiento.

Los periféricos se conectan a la Unidad Central por unos lugares que ésta tiene preparados al efecto y que se denominan puertos, conectores, ranuras de expansión:

- Los bus son las líneas a través de las cuales es comunican entre sí los elementos internos de la Unidad Central. Se distinguen tres tipos de bus:

- Bus de datos: disponen de 8, 16 o 32 hilos en paralelo a través de los cuales transportan los caracteres que integran los programas y los datos.

- Bus de direcciones: transportan números que representan a direcciones de memoria. Acostumbran a tener 20 o 32 hilos.

- Bus de control: transportan señales de control.

LOS PERIFÉRICOS E INTERFACES DE COMUNICACIÓN

A través de ellos se comunica la Unidad Central del COMPUTADOR, que en definitiva es la que procesa la información, con los usuarios de las computadoras. Distinguimos diversos tipos de periféricos:

a) Los periféricos de entrada permiten introducir datos y programas al COMPUTADOR. Los más usuales son:

In f o r m á t i c a Méd i c a I 4

Page 5: Informática Médica I

In f o r m á t i c a Mé d i c a I

- El TECLADO (keyboard) Es el principal periférico de entrada de información al COMPUTADOR. Acostumbra a tener un eco de pantalla, todo y que los caracteres son almacenados provisionalmente en un buffer de teclado y no entren directamente a la memoria. Suele tener 102 teclas.

- El RATÓN- (mouse) Es un pequeño dispositivo que al arrastrarlo sobre la mesa en una dirección determinada desplaza el cursor sobre la pantalla en la misma dirección. Dispone de un botón que podemos usar para dar diversas órdenes al COMPUTADOR.

- La TABLETA GRÁFICA consiste en una tabla especial que reconoce el desplazamiento de un lápiz magnético por su superficie; el grafismo que trazamos aparece en la pantalla y se introduce en la memoria del COMPUTADOR. Se utiliza mucho en trabajos de delineación, diseño gráfico...

- EL ESCÁNER Es un dispositivo que permite introducir directamente dibujos o fotografías en las computadoras. Podemos distinguir dos tipos:

- Escaners de sobremesa: tienen un funcionamiento parecido al de una fotocopiadora, sólo hace falta colocar la imagen original en el escaner y hacer los ajustamientos oportunos para que se genere una copia de la imagen en la pantalla.

- Escaners manuales: es desplazan poco a poco por encima de la imagen original y la van reproduciendo en la pantalla.

Muchos escaners disponen de la función OCR, que les permite comportarse como un lector de caracteres ópticos.

- El LECTOR DE CARACTERES ÓPTICOS OCR (Optic Characters Read) identifica caracteres (letras, números, signos...) escritos a lápiz o tinta en determinados impresos, cuestionarios..., y los introduce en el COMPUTADOR. Ahorran mucho trabajo de teclear datos ya que permiten que el COMPUTADOR lea directamente los caracteres de los documentos originales. Actualmente muchos escaners disponen de programas específicos que los permiten realizar esta función OCR.

- El LECTOR DE BARRAS interpreta los códigos de barras con los que se codifican determinadas informaciones. Los códigos de barras son muy utilizados en el comercio para identificar los productos y facilitar después su distribución y venta ya que los lectores de barras ahorran el trabajo de teclear precios y códigos en el COMPUTADOR cuando se despachan los productos.

- El MICRÓFONO. Cuando un COMPUTADOR dispone de placa de sonido, el MICRÓFONO permite introducir voz y música que la Unidad Central podrá procesar (reproducirla, modificarla, archivarla...). Con programas de identificación de voz el COMPUTADOR puede interpretar las órdenes verbales que se introducen desde un micrófono y hasta escribir textos en el dictado.

- La CÁMARA DE VÍDEO. Cuando un COMPUTADOR dispone de placa de vídeo, puede capturar imágenes en movimiento mediante una CÁMARA DE VÍDEO o a través de un magnetoscopio y procesarlas (reproducirlas, modificarlas, archivarlas...)

Hay programas que permiten realizar la edición y el montaje de un vídeo a través del COMPUTADOR, que se encarga de controlar los diversos aparatos videográficos (magnetoscopios, cámaras) y sonoros (equipos musicales) que intervienen en el proceso y también facilita la generación de textos y efectos especiales.

In f o r m á t i c a Méd i c a I 5

Page 6: Informática Médica I

In f o r m á t i c a Mé d i c a I

- La PANTALLA TÁCTIL.- Es una pantalla, que mediante un contacto táctil sobre su superficie, permite la entrada de datos y órdenes al COMPUTADOR. Este contacto también se puede realizar con lápiz y otras herramientas. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal.

- El CONVERTIDOR ANALÓGICO-DIGITAL convierte las señales analógicas de un termómetro o un amperímetro en señales digitales (dígitos) y las introduce en el COMPUTADOR para que sean procesadas. Resulta muy útil para controlar automáticamente procesos industriales. Por ejemplo: detectar y corregir excesos de temperatura en una caldera.

b) Los periféricos de salida (otput devices) presentan al usuario los resultados que obtiene el COMPUTADOR al procesar información. Los más usuales son:

- La PANTALLA o MONITOR (display) funciona conectada a un adaptador gráfico (tarjeta gráfica) situada en la caja del COMPUTADOR. El sistema adaptador-pantalla puede ser:

- Con tubo de rayos catódicos

- De cristal líquido LCD (como las pantallas extraplanas de las computadoras portátiles).

Las prestaciones gráficas de las pantallas de las computadoras han evolucionado mucho en los últimos años:

- Los primeros sistemas gráficos CGA (Color Graphics Adapter) tenían poca definición: 320 * 200 pixels y trabajaban con un máximo de 4 colores.

- Más tarde los sistemas VGA ofrecieron 640 * 480 pixels con 16 colores.

- Actualmente tenemos los sistemas super VGA con resoluciones mínimas de 1024 * 768 pixels y que utilizan desde 256 a millones de colores.

Las pantallas de calidad tienen sistemas de protección contra los reflejos, la electricidad estática y las radiaciones electromagnéticas. Todo y así, no es conveniente trabajar mucho tiempo con la vista concentrada en la pantalla.

- La IMPRESORA permite presentar la información que proporciona el COMPUTADOR en formato papel. Generalmente se conecta a la Unidad Central del COMPUTADOR a través de un puerto paralelo y se configura mediante unos microinterruptores (DIP) que lleva incorporados. Sus cualidades más apreciadas son:

- Velocidad. Se mide en caracteres por segundo(cps) o en páginas por minuto (ppm).

- Tipo de letra: calidad, juegos de caracteres, colores...

- Amplitud y gestión del papel: tracción (papel continuo) o fricción.

- Posibilidad de programación.

- Buffer de impresión. Si puede almacenar mucha información, nos permite usar el COMPUTADOR para hacer otros trabajos mientras va imprimiendo.

Según la manera en que se realiza la impresión podemos distinguir diversos tipos de impresoras:

- IMPRESORAS DE CONTACTO: imprimen al golpear una matriz sobre una cinta entintada y el papel y permiten sacar copias simultáneas. Pueden ser:

In f o r m á t i c a Méd i c a I 6

Page 7: Informática Médica I

In f o r m á t i c a Mé d i c a I

- DE BOLA O MARGARITA: Su matriz es una bola o margarita que contiene todos los caracteres imprimibles; son lentas y no permiten reproducir gráficos, pero proporcionan un escrito de calidad.

- DE AGUJAS: Sólo disponen de una matriz de agujas donde se forman los caracteres a medida que se han de imprimir, son más rápidas pero la escritura es de menos calidad. .

- IMPRESORAS LÁSER: ofrecen gran rapidez y calidad y permiten la combinación de gráficos, imágenes digitalizadas y textos en la misma página. La impresión se realiza página a página como una fotocopiadora y disponen de una serie de comandos que permiten mejorar sus prestaciones (uno de ellos es el lenguaje POSTSCRIPT).

- IMPRESORAS DE INYECCIÓN DE TINTA (ink jet bubbe): escriben al proyectar tinta a través de una matriz con orificios que reproducen los caracteres al imprimir; proporcionan una buena calidad y pueden imprimir en color.

- IMPRESORAS TÉRMICAS: imprimen térmicamente sobre un papel especial; dan poca calidad y al papel es caro.

- El TRAZADOR (plotter) Es una impresora especializada en trazar planos y gráficos. Puede realizar su trabajo en hojas de grandes dimensiones y utiliza diversos colores.

- Los ALTAVOCES. Cuando un COMPUTADOR dispone de placa de sonido, los ALTAVOCES permiten escuchar música y voces de calidad con el COMPUTADOR. Resultan indispensables para aprovechar las prestaciones sonoras de los programas multimedia.

- El SINTETIZADOR DE VOZ transforma señales digitales en señales audibles; permite que el COMPUTADOR hable. Hay sintetizadores de voz especiales que leen libros y permiten un fácil control de avance y retroceso de párrafo y páginas. Resultan muy útiles para los ciegos.

- El CONVERTIDOR DIGITAL-ANALÓGICO convierte las señales digitales que proporciona el ordenado en señales analógicas (continuas) con las que se pueden controlar dispositivos de esta naturaleza. Con estos convertidores se pueden controlar robots, tortugas...

c) Periféricos de almacenamiento. Los PERIFÉRICOS DE ALMACENAMIENTO (memorias masivas auxiliares) son memorias permanentes (no volátiles) que actúan como un almacén auxiliar de la memoria del COMPUTADOR. En ellas se puede guardar (escribir) la información que no se va a utilizar inmediatamente y recuperarla (leerla) cuando sea preciso.

Las informaciones se almacenan en unos paquetes denominados archivos o archivos que permanecen grabados en un soporte magnético óptico después de la conexión del COMPUTADOR. Los periféricos de almacenamiento están conectados a la Unidad central a través de una placa controladora. Sus principales cualidades son:

- Gran capacidad de almacenamiento- Alta fiabilidad en las operaciones de lectura y escritura- Alta velocidad de acceso a la información grabada.

Las unidades de almacenamiento externo más utilizadas son:

In f o r m á t i c a Méd i c a I 7

Page 8: Informática Médica I

In f o r m á t i c a Mé d i c a I

- Las UNIDADES DE DISCO FLEXIBLE (floppy disk) son unos dispositivos de lectura y escritura de información que trabajan con unos discos transportables elaborados con un plástico flexible recubierto por una sustancia magnética. Tienen un acceso directo a la información que se almacena en las dos caras, pero antes de utilizarlos es necesario realizar una operación de formateo que proporcione una estructura al disco. Desde su aparición se han usado discos flexibles de diferentes tamaños: 8’’, 51/4’’, 31/2’’ que subsisten hasta hoy, aunque han ido variando su capacidad desde los 360 Kb iniciales para pasar a los 720 Kb y terminar en los 1.4 Mb actuales.

- Las UNIDADES DE DISCO FIJO O DISCO DURO (hard disk) son unos dispositivos de lectura y escritura de información que operan con unos discos magnéticos rígidos situados en su interior. Igual que los discos flexibles tienen un acceso directo a la información y se necesita realizar un formateo antes de usarlos. Son más rápidos y fiables que los discos flexibles y pueden almacenar más de 100 Gb. Algunas unidades de disco duro removibles pueden ser transportadas fácilmente de un COMPUTADOR a otro ya que no están “fijas” y se conectan y desconectan como cualquier otro dispositivo.

- Las UNIDADES DE CD-ROM o DVD son dispositivos que leen la información almacenada sobre discos ópticos de plástico con una superficie interna sensible que se “quema”.

Los CD-ROM, unos discos similares a los compact-disc que se utilizan en audio y que mediante la tecnología láser pueden contener gran cantidad de información (más de 600M). Las unidades de CD-ROM convencionales sólo pueden leer la información que tienen los CD-ROM; no pueden escribir más datos ni borrar su contenido. No obstante también hay unidades grabadoras que permiten la grabación (una única vez) de discos CD-ROM.

Los lectores DVD (Digital Video Disk) además de leer los discos convencionales de CD-ROM y audio, pueden leer los nuevos discos DVD de 17 G.

- Las UNIDADES DE CINTA MAGNÉTICA (datacartridge) son unidades de lectura y escritura de información sobre cintas magnéticas. A diferencia de las unidades de disco, las unidades de cinta magnética tienen un acceso secuencial a la información, de manera que son mucho más lentas.

- Las memorias USB.- Pequeños dispositivos que pueden almacenar hasta 5 Gb. y caben en la palma de la mano. Se usan también con aplicaciones adicionales que permiten oír música en MP3 y otros formatos.

c) Periféricos de comunicación. Las unidades de comunicación son dispositivos que facilitan el intercambio de información (programas, datos...) entre dos o más Computadoras distantes. Entre ellos están:

- Los MÓDEMS (moduladores-demoduladores) son periféricos que permiten la conexión del COMPUTADOR a la línea telefónica para la transmisión de programas y datos. Modulan la información digital que emite el COMPUTADOR emisor para que pueda viajar por la línea telefónica y, al otro lado de la línea, demodula los mensajes y los convierte en señales digitales comprensibles para el COMPUTADOR receptor. Hay dos tipos de módem:

- Modems externos: que se conectan directamente a un puerto serie de la Unidad Central del COMPUTADOR.

- Modems internos, montados sobre una placa que se coloca dentro del COMPUTADOR .

In f o r m á t i c a Méd i c a I 8

Page 9: Informática Médica I

In f o r m á t i c a Mé d i c a I

Las principales cualidades de un módem han de ser la fiabilidad y la velocidad de la transmisión. Actualmente hay módems con velocidades de 56’6 Kbits por segundo.

Para poder trabajar con los entornos gráficos de la red Internet es necesario disponer de un módem que trabaje a una velocidad de 14.400 o superior. La velocidad de las transmisiones depende en gran medida de las características de la línea telefónica. Las líneas de fibra óptica proporcionan la máxima velocidad de transmisión.

- Las TARJETAS ADAPTADORAS RDSI o ADSL. Si se dispone de una línea telefónica digital RDSI o conexión ADSL, entonces en vez de un módem será necesario instalar en un puerto PCI del COMPUTADOR una tarjeta adaptadora RDSI o un adaptador ADSL

- La TARJETA DE CONEXIÓN A REDES (Local Area Network). Permite la interconexión de las computadoras formando redes que facilitan el intercambio de información y la compartición de recursos (impresoras, discos duros...). Una de las más utilizadas en Ethernet.

- Los MULTIPLEXORES permiten que una misma línea de comunicación transporte mensajes emitidos por diversos Computadoras . Una de las aplicaciones de los multiplexores es la conexión de diversos Computadoras a una misma impresora. También se usan en las redes locales.

- Las interficies de comunicación. Las interfícies de comunicación son cables y dispositivos mediante los cuales la CPU se comunica con sus periféricos a través del enlace de sus respectivos puertos. Distinguimos:

- Conexiones tipo paralelo: disponen de un mínimo de 8 hilos dedicados a transportar la información byte a byte. La más usual es el tipo CENTRÓNICOS (de 36 vías), utilizado generalmente por la impresora.

- Conexiones tipo serie: tienen un único hilo dedicado al transporte de información, de manera que los bytes tienen que ser transportados divididos en bits, en 8 emisiones sucesivas. Es por tanto más lento, pero por líneas largas resulta más económico. La más usual es el tipo RS-232 (de 25 vías), utilizado por la pantalla y los módems.

- Conexiones tipo USB, que además de permitir la conexión de los periféricos con el COMPUTADOR en marcha, los configuran automáticamente.

- Las ranuras de expansión: son unos zócalos que se encuentran en la placa base y permiten la introducción de las tarjetas que han de controlar a los periféricos. Las hay de diverso tipo: AGP para la tarjeta gráfica, PCI (de 32 bits), ISA (de 16 bits)...

EL SOFTWARE

Denominamos software a los elementos lógicos de las computadoras, es decir, los programas que utilizan. Estos programas se escriben en un lenguaje especial llamado “lenguaje de programación” y hay varios de diverso tipo y para distintas necesidades.

A) Los lenguajes de programación. Son los lenguajes que se utilizan para escribir programas, es decir, para programar. Podemos distinguir tres tipos:

In f o r m á t i c a Méd i c a I 9

Page 10: Informática Médica I

In f o r m á t i c a Mé d i c a I

a) Lenguajes de nivel máquina: Sólo usan signos 0 y 1. Resulta muy lento y complicado programar con ellos.

b) Lenguajes ensambladores (assembler): más fáciles que los anteriores ya que usan códigos nemotécnicos.

c) Lenguajes de alto nivel: son lenguajes próximos a nuestro lenguaje habitual. Facilitan la programación. Los lenguajes de alto nivel más utilizados son o han sido:

- FORTRAN (FORmula TRANslation). Lenguaje adecuado a trabajos científicos a partir del 1954. Se usaba mucho en universidades.

- COBOL. Muy utilizado en el mundo empresarial a partir del 1959, especialmente para realizar programas de gestión comercial: planillas, contabilidad, ventas, etc.

- BASIC (Beginners All-purpose Symbolic Instruction Code). Creado el año 1965 por Kemeny y Kurtz (USA), Es un lenguaje de uso general muy fácil de usar, el más difundido entre las microcomputadoras. La versión VISUAL BASIC (Microsoft) permite programar en Windows y es actualmente uno de los más usados.

- PASCAL. Concebido por el suizo Niklaus Wirth y difundido a partir de 1971. Es un lenguaje de programación estructurado de uso general. Resultan especialmente potentes y manejables las versiones TURBO PASCAL (Borland).

- LOGO. Nace en el año 1971 de la mano de Seymor Papert (discípulo del psicólogo suizo Jean Piaget). Es un lenguaje muy útil en el ámbito educativo ya que permite al alumno aprender activamente con el COMPUTADOR mediante la construcción y exploración de micromonos, el más conocido de los cuales es el micromundo de la tortuga.

- C. Lenguaje estructurado de uso general, parecido al PASCAL, que asegura la transportabilidad de los programas entre computadoras diferentes.

- PROLOG (PROgraming in LOGic). A diferencia de los anteriores, que son lenguajes procedimentales, PROLOG pertenece al grupo de los lenguajes declarativos. Se utiliza mucho en el campo de la Inteligencia Artificial.

- HTML: (Hyper Text Markup Language) (lenguaje de marcación de hipertexto), es un lenguaje de marcas diseñado para estructurar textos y presentarlos en forma de hipertexto, que es el formato estándar de las páginas web. Gracias a Internet y a los navegadores del tipo Explorer o Netscape, el HTML se ha convertido en uno de los formatos más populares que existen para la construcción de documentos.

- XML: eXtensible Markup Language (lenguaje de marcado ampliable o extensible) desarrollado por el World Wide Web Consortium (W3C). Diseñado con la intención de reemplazar al estándar actual HTML. Lenguaje universal de marcado para documentos estructurados y datos en la web, más amplio, mas rico y más dinámico que HTML. No solo es un lenguaje de marcado, sino también un metalenguaje que permite describir otros lenguajes de marcado. Permite el uso ilimitado de los tipos de datos que pueden utilizarse en Internet, lo cual resuelve los problemas que surgen entre las organizaciones que deben intercambiar datos procedentes de standards distintos, www.xml.com

Como las computadoras sólo entienden el lenguaje máquina, cuando se programa con ensambladores o lenguajes de alto nivel es necesario usar programas traductores que traduzcan el programa acabado a lenguaje máquina.

In f o r m á t i c a Méd i c a I 10

Page 11: Informática Médica I

In f o r m á t i c a Mé d i c a I

B) Los sistemas operativos son un conjunto de programas informáticos que se encargan de la comunicación entre la CPU y sus periféricos (teclado, pantalla, unidades de disco...) y nos permiten controlar el COMPUTADOR. Este control se realiza mediante una serie de comandos que ordenan acciones como: ver el contenido de un disco, borrar la pantalla, copiar discos, etc. El Sistema Operativo se ocupa de controlar y administrar los diversos recursos del computador: memoria, puertos, comunicaciones, etc. Según el número de terminales del COMPUTADOR distinguimos:

- Sistemas operativos monousuarios: sólo permiten el trabajo de un único usuario delante del COMPUTADOR, como el MS/DOS, WINDOWS

- Sistemas operativos multiusuarios: permiten el trabajo simultáneo de diversos usuarios en terminales diferentes, como el UNIX, LINUX, WINDOWS NT.

Si consideramos los trabajos que el COMPUTADOR puede procesar a la vez podemos distinguir dos tipos de SISTEMAS OPERATIVOS:

- Sistemas operativos monoproceso, que hacen los trabajos sucesivamente, uno detrás del otro, como el MS/DOS.

- Sistemas operativos multiproceso, que permiten hacer al COMPUTADOR diversos trabajos en paralelo a la vez, como por ejemplo los sistemas: OS/2 y WINDOWS .

Los sistemas operativos que se han utilizado más en las computadoras personales han sido:

- MS/DOS. Actualmente ya en desuso. Algunos de sus comandos son los siguientes:

- DIR: muestra los archivos y directorios que contiene un disco.- FORMAT: realiza el formateo de los discos.- DISKCOPY: realiza una copia completa de un disquete.- COPY: copia algunos archivos de un disco.- MKDIR: permite crear nuevos directorios en el disco.- CD: permite cambiar de directorios.- ERASE: elimina archivos del disco .

- MAC OS/SYSTEM. Es el sistema operativo de las computadoras Macintosh. Su entorno de trabajo ha sido siempre un modelo en cuanto a facilidad de uso. Sus principales elementos son los mismos de WINDOWS.

- WINDOWS. El sistema operativo WINDOWS, es el más extendido actualmente en todo el mundo. Actúa como un sistema operativo que mejora las prestaciones ofrecidas por el sistema operativo MS/DOS y ofrece un entorno de trabajo más intuitivo y amigable. Sus principales elementos son:

- Menús: a través de los cuales se seleccionan las acciones a realizar.- Ventanas: espacios donde se muestra la información y se realizan los

trabajos.- Iconos: con los que se representan las acciones que se pueden realizar y los

programas disponibles

Todos los programas disponibles que funcionan con el sistema WINDOWS acostumbran a tener una estructura de menús similar, de manera que se facilita su aprendizaje.

In f o r m á t i c a Méd i c a I 11

Page 12: Informática Médica I

In f o r m á t i c a Mé d i c a I

- LINUX. Sistema operativo gratuito, que se va extendiendo lentamente.

C) Software de aplicaciones de uso general. Las APLICACIONES DE USO GENERAL (también llamadas aplicaciones horizontales o software de base) son programas que resultan de utilidad en el desarrollo de muchas actividades humanas diferentes. Los más utilizados son:

- Los PROCESADORES DE TEXTOS son programas que facilitan la edición de textos, cartas, documentos. Actualmente los más utilizados en el mundo son el Wordperfect (COREL), Wordpro (IBM), el Word (Microsoft) y sobre todo el Write de Open Office (Sun) cuyo formato es el único que ha ganado una certificación ISO.

- Los GESTORES DE BASES DE DATOS se usan para la creación, modificación y archivo de documentos y fiches sobre muy diversos temas, y permiten la búsqueda, clasificación y listado de las informaciones. Algunos ejemplos son: Access de Microsoft, Paradox de Borland, Lotus Approach de IBM, y Base de Open Office. Pero también existen sistemas de bases de datos más grandes como SQL y ORACLE.

- Los HOJAS DE CÁLCULO son programas especializados en hacer cálculos matemáticos. Agilizan los trabajos que requieren muchas operaciones numéricas como los estudios provisionales, el manejo de modelos... Así resultarán útiles para la elaboración y actualización de presupuestos, en los estudios estadísticos, etc. Actualmente las más utilizadas son Quattro Pro de Wordperfect, LOTUS 1-2-3 (IBM), y el Microsoft Excel.

- Los EDITORES GRÁFICOS son programas que facilitan la elaboración de gráficos y dibujos. Los editores gráficos tienen una amplia gama de presentaciones, desde los más elementales como el MS Saint y el MS Photo Editor, hasta los más sofisticados como el Adobe Fotoshop o el Corel Draw. Existen versiones intermedias que pueden localizarse en la web y algunos muy buenos que son freeware como el XNVIEW, el que puede ser descargado desde www.xnview.com. Las necesidades de gráficos y de imágenes son diversas, tales como:

- Gráficos geométricos- Dibujos artísticos.- Gráficos estadísticos: diagramas de barras, histogramas, diagramas de sectores, pictogramas...

- Edición de fotografías

- Los PROGRAMAS DE COMUNICACIONES son programas especializados en transmitir archivos, gestionar el correo electrónico o navegar por las redes telemáticas. Son buenos ejemplos de este tipo de programas el Internet Explorer, el Netscape, Opera, Copérnico, Mozilla Firefox, etc. También los programas de Chat y los que gestionan la transmisión de archivos o descargas. Además hay programas específicos que permiten hablar por telefonía IP o que incluso convierten al computador en un aparato telefónico convencional que facilita el envío y recepción de faxes y la recepción de mensajes.

D) Aplicaciones específicas. Las APLICACIONES ESPECÍFICAS (también llamadas aplicaciones verticales) son programas que se utilizan exclusivamente en unas actividades muy concretas:

- Contabilidad, finanzas y gestión comercial- Facturación, ventas y control de stock

In f o r m á t i c a Méd i c a I 12

Page 13: Informática Médica I

In f o r m á t i c a Mé d i c a I

- Planillas de pago- Diseño gráfico y arquitectura- Fabricación asistida- Educación- Gestión de centros educativos- Gestión de consultorios médicos- Gestión de Centros y Postas Médicas- Historias clínicas electrónicas- Juegos

Evolución de las computadoras

Los últimos 50 años, y debido al vertiginoso desarrollo de la microelectrónica, el tamaño y el precio de las computadoras no han dejado de bajar, mientras aumentan continuamente su fiabilidad, su rapidez y sus prestaciones en general. Las principales etapas de esta evolución han sido las siguientes:

- Precursores de las computadoras. La aparición de las computadoras no ha sido un hecho que se haya producido de repente; a lo largo del tiempo encontramos diversas máquinas mecánicas que intentan facilitar la realización de los cálculos y automatizar algunos trabajos: la sumadora de Pascal (XV), la calculadora de Leibniz (XVII), la máquina analítica de Babbage (XIX), la clasificadora de fichas perforadas de Hollerit (XIX), etc.

- Computadoras electromecánicas. En el año 1944, Howard Aiken (EE.UU) construyó MARK-1, el primer calculador programable. Se programaba mediante la conexión de clavijas externas, era enorme y poco fiable... pero inicia la era de las computadoras.

- Computadoras de válvulas electrónicas (1946). Enormes Computadoras que usaban fichas perforadas para la toma de los datos y de los programas. El primer de estos Computadoras fue el ENIAC (Eckert y Mauchly, EE.UU), un prototipo con finalidad científica y militar, a partir del cual se construyeron otros modelos con un planteamiento más comercial.

- Computadoras transistorizados (1956). Grandes Computadoras con muchos terminales que usaban tarjetas perforadas y cintas magnéticas para entrar datos y archivar los resultados.

- Computadoras a base de circuitos integrados (1965). Eran ya miniComputadoras que solían utilizar teclado y pantalla y almacenaban la información en discos magnéticos como el IBM 360 y el UNIVAC 90.

- Computadoras a base de un microprocesador (1971). Permitieron reducir más el tamaño de todos las computadoras y especialmente en la producción de pequeños y potentes microComputadoras como las computadoras personales.

Referencias: Para una revisión de la evolución de la informática ver:

Perantivirus: http://www.perantivirus.com/historia/index.htm

In f o r m á t i c a Méd i c a I 13

Page 14: Informática Médica I

In f o r m á t i c a Mé d i c a I

LAS GENERACIONES DE COMPUTADORAS La primera generación, 1941 a 1958 Las computadoras de la primera generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura / escritura colocaba marcas magnéticas. Como los radiorreceptores del mismo tipo, esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. J. Presper Eckert y John W. Mauchly contribuyeron al desarrollo de computadoras de la primera generación formando una compañía privada, y construyendo UNIVAC 1, que el comité del censo utilizó para evaluar el de 1950.

La Interrnational Business Machine (IBM), que vendía equipos de tarjetas perforadas y no había logrado el contrato para el censo de 1950 comenzó a construir computadoras electrónicas, y rápidamente se colocó como fuerte contendiente en el mercado. Aunque caras y de uso limitado, las computadoras fueron aceptadas rápidamente por las compañías privadas y el gobierno. A la mitad de los años 50, IBM y Remington Rand, que habían comprado la compañía de Eckert y Mauchly, se consolidaban como líderes en la fabricación de computadoras. Sus clientes incluían a las empresas Sylvania, General Electric, y el gobierno federal. La IBM 650 entró en servicio por primera vez en Boston a fines de 1954. Siendo una máquina relativamente barata para aquella época, tuvo gran aceptación, y dio a la IBM liderazgo en la producción de computadoras en 1955. Desde 1956, la IBM ha sido el fabricante de computadoras más grande del mundo.

In f o r m á t i c a Méd i c a I 14

Page 15: Informática Médica I

In f o r m á t i c a Mé d i c a I

En el período de 1954 a 1959, muchos negocios adquirieron computadoras para procesar datos, aun cuando estas máquinas estaban diseñadas para aplicaciones científicas. Los no científicos solían considerar la computadora como un instrumento de contabilidad y las primeras aplicaciones de negocios se diseñaron para procesar tareas rutinarias como son las nóminas. Se subestimó el potencial real de las computadoras y muchas fueron adquiridas por el prestigio que conferían a la organización.

Características Principales

Tecnología: válvulas de vacío (bulbos), eran máquinas voluminosas, de altísimo consumo de energía, excesivamente caras y de vida muy limitada.

Avances del equipo físico: en la memoria se pasa de registros de válvulas a núcleos de ferrita; en la memoria secundaria, de tarjetas y cintas perforadas a tambores y cintas magnéticas. Además se introduce el control de interrupciones.

Avances del equipo lógico: utilización de aritmética binaria, programación en ensamblador (para ayudar al programador).

Principales Equipos

Mark I. Un dispositivo electromecánico, basado en relés, fabricado para la Marina de EU por Howard Aitken e ingenieros de la IBM. La última de su clase.

ABC. Siglas de Atanasoff-Berry Computer, fabricada en la Univ. Estatal de Iowa. Conocida ahora como la primera computadora digital electrónica. ENIAC. La más famosa de las primeras computadoras, contenía más de 18.000 tubos de vacío. Fabricada para aplicaciones balísticas del Ejército de EU. Manchester Mark I. Producida por la Universidad de Manchester; la primera computadora con "programa almacenado". Hasta ese momento, todas las

In f o r m á t i c a Méd i c a I 15

Page 16: Informática Médica I

In f o r m á t i c a Mé d i c a I

computadoras tenían que ser reprogramadas mediante cambios en el alambrado. Esto fue un gran avance. UNIVAC I Primera computadora creada por una firma comercial pertenecientes a John W. Mauchly y J. Prespert Eckert.

La segunda generación, 1959 a 1964 En 1947, tres científicos de los laboratorios Bell, John Bardeen, William Shockley y Walter Brattain, ganaron el premio Nóbel al inventar y desarrollar el transistor, que era más rápido, confiable y 200 veces más pequeño que un bulbo o tubo electrónico, y requería menos electricidad. El transistor hizo posible una nueva generación de computadoras, más rápidas, pequeñas y con menores necesidades de ventilación. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. La escritura de programas de aplicación en lenguaje de máquina fue desplazada por el uso de lenguajes de programación de alto nivel. Los principales lenguajes de la época fueron FORTRAN para las tareas científicas y COBOL para los negocios. El COBOL, desarrollado durante la primera generación de computadoras, estaba ya disponible comercialmente. Los programas escritos para una computadora podrían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la segunda generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas de reservación en líneas aéreas, control de tránsito aéreo, y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventaros, nómina y contabilidad. La Marina de Estados Unidos utilizó las computadoras de la segunda generación para crear el primer simulador de vuelo, Whirlwind. Al mismo tiempo que se desarrollaban los sistemas de la segunda generación se estaba creando una industria nueva, basada en la idea de integrar transistores y otros componentes para formar circuitos que pudieran colocarse en pequeños trozos de silicio. Una de las primeras compañías de esta industria fue Shockley Semiconductor, fundada en 1955 por William Shockley en su ciudad natal de Palo Alto, California. Algunos empleados de la compañía de Shockley se separaron más tarde para formar Fairchild Semiconductor, y a su vez gente de Fairchild Semiconductor formó otras varias compañías, incluyendo Intel Corporation. Dado que muchas de estas compañías estaban situadas en el valle de Santa Clara, cerca de la empresa de Shockley en Palo Alto, la gente empezó a referirse a la región como el valle del silicio (Silicon Valley). Características Principales

Tecnología: en 1948 se inventó el transistor en los laboratorios de la Bell. Pero hasta 1954 no construyeron el TRADIC en la Bell, que fue el primer computador transistorizado. Las ventajas del transistor son que es más pequeño, el consumo es menor y más barato que las válvulas. Con lo cual los computadores se hacen más asequibles.

In f o r m á t i c a Méd i c a I 16

Page 17: Informática Médica I

In f o r m á t i c a Mé d i c a I

Avances del equipo físico: se consolidan las memorias de ferrita. Aparecen los canales de E/S.Avances del equipo lógico: aparecen los lenguajes de alto nivel (FORTRAN, COBOL, ALGOL, PL1). Se impone el procesamiento tipo batch o por lotes: ejecución automática y secuencial de los programas de usuario, uno a uno.

Principales Equipos que se destacan UNIVAC 1107, BURROUGH D-805, PDP-5 de DEC, y las científicas IBM 7070, 7090, 7094.

Tercera Generación, 1964-1970 Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Los sistemas de la segunda generación eran bastantes especializados. Se les diseñaba para procesar aplicaciones tanto científicas como no científicas, pero no se procuraba que funcionaran adecuadamente en los dos ambientes. Esta situación cambió cuando en 1964 cuando IBM anunció una tercera generación de equipo de cómputo: Su familia System 360 de macro computadoras. Cada uno de los procesadores de esta familia tenía un conjunto muy amplio de instrucciones internas que podía ejecutar. Algunas de esas instrucciones eran especialmente útiles en aplicaciones científicas, mientras que otras eran más apropiadas para procesamiento de archivos. De ese modo era posible utilizar la línea 360 de manera eficiente en los dos ambientes. Con la introducción del modelo 360, IBM capturó el 70% del mercado, dejando a RCA, General Electric y Xerox fuera del campo de las computadoras grandes. Sin embargo, la estandarización del modelo 360 permitió el crecimiento de los fabricantes de dispositivos de almacenamiento, cuyos periféricos eran compatibles con las series de IBM. Para evitar competir directamente con la IBM, Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación y se extendió su uso entre 1960 y 1970. En 1960, DEC introdujo la primera mini computadora, la PDP-1 y en 1969 tenía ya una línea de exitosas mini computadoras.

In f o r m á t i c a Méd i c a I 17

Page 18: Informática Médica I

In f o r m á t i c a Mé d i c a I

La tecnología de los circuitos integrados también provocó la expansión de la industria del software. Los programas estándares fueron reescritos para trabajar en las nuevas máquinas de circuitos integrados, e incluso en máquinas todavía en fase de desarrollo. Esta compatibilidad hacia el futuro permitió a las compañías usar su software anticuado después de modernizar su hardware.

La multiprogramación En el ambiente de computación centralizado de principios de los sesentas, los usuarios preparaban sus datos y los programas y después los llevaban al centro de cómputos para ser procesados. El centro de cómputo reunía todas estas tareas y las introducía por lotes a la computadora, a intervalos programados. El retraso inevitable que resultaba de este procesamiento por lotes era muy frustrante para algunos usuarios. Los retrasos eran demasiados irritantes para los estudiantes con tareas de programación, que a veces tenían que esperar varios días para localizar y corregir unos cuantos errores en sus programas. Para corregir esta situación John Kemeny y Thomas Kurtz, profesores de la Dartmouth College, decidieron llevar más lejos algunos conceptos de tiempo compartido que se habían desarrollado en el Instituto Tecnológico de Massachussetts (MIT). Tiempo compartido es un término que se emplea para describir un sistema de proceso que cuenta con varias estaciones independientes, de baja velocidad (relativamente), en líneas susceptibles de utilizarse en forma simultánea. Cada una de las estaciones proporciona al usuario acceso directo al computador central. Kemeny y Kurtz desarrollaron programas especiales que permitían al procesador conmutar entre las distintas estaciones de estudiantes y llevar a cabo una parte del trabajo en el segmento de tiempo asignado a cada una, hasta finalizar el trabajo. La intención era dar al estudiante la ilusión de que nadie más estaba utilizando la computadora.

In f o r m á t i c a Méd i c a I 18

Page 19: Informática Médica I

In f o r m á t i c a Mé d i c a I

El BASIC Para mejorar el ambiente de cómputo interactivo que estaban creando, los profesores desarrollaron un lenguaje de programación fácil de aprender por parte de los estudiantes universitarios de todas las carreras. El objeto era que todos los estudiantes tuvieran un incentivo para utilizar con cierta frecuencia las estaciones de tiempo compartido. Este lenguaje – el BASIC – que representa las iniciales en inglés de “código simbólico de instrucciones de aplicación general para principiantes” fue todo un éxito en Dartmouth en ambos aspectos. Dartmouth utilizaba una computadora General Electric y el sistema BASIC de tiempo compartido se implantó en este equipo con la ayuda de ingenieros de GE, a resultas del éxito del sistema de Dartmouth, General Electric y otros fabricantes ofrecieron instalaciones de tiempo compartido y el uso del lenguaje BASIC a sus clientes en todo Estados Unidos. El Unix y el Lenguaje C En 1969 se desarrollan en los laboratorios de AT&T Bell lo que sería el primer sistema operativo, el Unix. Antes de esto se requería que cada programador escribiera sus archivos en un tipo de formato que por lo general no era compatible con el de otro programador. Además, los programadores debían de preocuparse de tareas rutinarias como abrir archivos, cerrarlos, las colas de impresión, etc. Con la creación del sistema operativo esos pasos son encargados a la computadora misma, dando como resultado más tiempo al programador para ocuparse de los problemas reales. El Unix fue desarrollado en su mayor parte por Ken Thompson en una computadora DEC PDP-7, en un lenguaje también recién creado, el lenguaje C. El lenguaje C tiene la ventaja sobre los otros leguajes de programación, que es de muy bajo nivel, al punto en que se pueden escribir programas con la misma rapidez y potencia que los programas escritos en lenguaje ensamblador. Sin embargo, cada tipo de computadora tiene un tipo de lenguaje ensamblador diferente, debido a que el lenguaje C es un lenguaje de alto nivel (no tan alto como los otros), los programas escritos en C pueden se transportados a otros computadores con un mínimo de cambios en sus estructuras básicas. El Microprocesador A partir de 1965 cada año se duplicó el número promedio de componentes que se empacaban en una pastilla de silicio y este avance condujo a un suceso insólito: la creación de un microprocesador que podía colocarse en una sola pastilla. Un microprocesador contiene todos los circuitos necesarios para realizar funciones aritméticas lógicas y de control. Se puede construir una unidad de proceso completa con un microprocesador, unas cuantas pastillas de almacenamiento primario adicionales y algunos circuitos de apoyo. El origen del microprocesador se remonta a finales de la década de 1960. En esta época, Víctor Poor, ingeniero en electrónica de la Datapoint Corporation, estaba trabajando en el diseño y desarrollo de computadoras de aplicación especial. Cada vez que se necesitaba un dispositivo diseñado a la medida, Poor y otros ingenieros iniciaban la labor de diseño desde cero. Esto le parecía a Poor un desperdicio considerable de tiempo. Lo mejor, razonaba Poor, sería colocar los elementos básicos de aritmética lógica y de control de una computadora en una sola pastilla de silicio. La pastilla podría producirse en grandes cantidades y después programarse de maneras diferentes para realizar tareas especiales. En 1969 Víctor Poor y Harry Pyle, otro joven ingeniero de la Datapoint, desarrollaron un modelo de pastilla microprocesadora. Dado que Datapoint Corporation no fabricaba componentes electrónicos, Poor llevó su modelo de “pastilla procesadora” a dos fabricantes

In f o r m á t i c a Méd i c a I 19

Page 20: Informática Médica I

In f o r m á t i c a Mé d i c a I

de componentes, Texas Instruments e Intel Corporation, con la esperanza de que fabricaran la pastilla para Datapoint. Estas reuniones no produjeron decisiones inmediatas, pero los fabricantes de componentes estaban en libertad de utilizar el concepto de pastilla microprocesadora y lo hicieron. A finales de 1969, un ingeniero de Intel llamado Marcian “Ted” Hoff presentó sus ideas para el diseño de un microprocesador a los representantes de una compañía de calculadoras japonesas. En este tiempo las calculadoras se construían a partir de pastillas de circuitos especializadas que podían realizar únicamente una función. Pero la pastilla nueva de Hoff podía programarse para llevar a cabo varias funciones de cálculo especializadas. El cliente japonés aceptó las ideas de diseño y se empezó a trabajar con la disposición interna de los componentes de la pastilla. Este primer microprocesador, el Intel 4004, podía ejecutar únicamente algunas instrucciones, y sólo podía manipular cantidades diminutas de datos en un momento dado; pero para el otoño de 1971 Intel había producido una pastilla más poderosa, el 8008 y Texas Instruments entregaba ya un microprocesador. En 1974 Intel produjo un tercer microprocesador, el 8080 y quedaron establecidas las bases para el desarrollo de una computadora personal (PC). Características Principales

Tecnología: se integran los transistores y aparecen los Circuitos Integrados (C.I.): SSI, MSI.

Máquinas: IBM 360. Aparecen las “Familias de Computadores”: computadores de distinta potencia y precio pero con la misma arquitectura y totalmente compatibles. Se produce una explosión de los mini-computadores: recursos más limitados pero muy asequibles (PDP-8, PDP-11).

Avances del equipo físico: tarjetas de circuito impreso (PCB); memorias electrónicas sustituyen a las de ferrita; aparecen las memorias caché; la CPU está basada en registros de propósito general.

Avances del equipo lógico: nuevos lenguajes de alto nivel (BASIC, PASCAL); gran avance en el Sistema Operativo; aparece la multiprogramación.

Principales Equipos IBM 360, PDP-8, PDP-11

Cuarta generación, 1971-a la fecha Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio, y la colocación de muchos más componentes en un chip. Intel llevó esta idea a la conclusión lógica creando el microprocesador, un chip que contiene todos los circuitos requeridos para hacerlo programable. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Un chip puede contener dos de los componentes del CPU, la unidad de control y la unidad aritmético-lógica, un tercer componente, la memoria primaria (también en chips), se maneja por separado.

In f o r m á t i c a Méd i c a I 20

Page 21: Informática Médica I

In f o r m á t i c a Mé d i c a I

Las computadoras personales (PC’s) El primer anuncio de una computadora personal construida a partir de un microprocesador apareció en el número de marzo de 1974 de QST, una revista para aficionados a la radio. El producto que se anunciaba era la Scelbi-8H, y sólo se vendieron cerca de 200 de estos procesadores. Pisándoles los talones a la Schelbi-8H venía la Altair 8800. La Altair, diseñada con base en una pastilla de Intel por una compañía de Alburquerque, Nuevo México, llamada MITS (Micro Intrumentation Telemetry Systems), se ofrecía originalmente en forma de un equipo para ensamblar por menos de 400 dólares. El artículo principal del número de enero de 1975 de la revista Popular Electronics trataba de esta máquina y es posible que dicho artículo haya iniciado la explosión de las computadoras personales. Para 1972, dos jóvenes programadores, Bill Gates y Paul Allen habían fundado una empresa llamada Traf-O-Data, en esta fecha Gates y Allen estaban completando un programa que podía traducir instrucciones escritas en BASIC a los códigos de lenguaje de máquina que requerían los procesadores de Intel. La Traf-O-Data se convirtió en Microsoft Corporation para vender el programa de BASIC Gates-Allen y la licencia del Microsoft BASIC se concedió a MITS a finales de 1975.

En la primavera de 1976 un joven técnico de la Hewlett-Packard llamado Steve Wozniak compró un microprocesador de MOS Technology y se propuso construir una computadora a partir de él. Esta computadora, la Apple I, se exhibió en el Homebrew Computer Club (club de computadoras hechas en casa) en el Valle del Silicio. Wozniak ofreció su diseño a Hewlett-Packard, que no se interesó por él. Un amigo de Wozniak, Steve Jobs, le propuso que formaran una compañía para vender la Apple. Sólo se construyeron cerca de 200 Apple

I, pero a fines del verano Wozniak ya estaba trabajando sobre el diseño de la Apple II. Con la ayuda financiera y administrativa de Mike Markkula, antiguo ingeniero y ejecutivo de mercadeo de Intel, Apple se convirtió repentinamente en un competidor importante en la industria de las computadoras. A finales de 1977, las máquinas que dominaban el mercado eran la Apple II, el modelo TRS-80 de la Radio Shack Division de la Tandy Corporation y las docenas de otras marcas que estaban diseñadas para seguir los conceptos de interconexión eléctrica utilizados en la computadora Altair. Como era de esperarse, la mayor parte de los programas de aplicación escritos antes de 1980 estaban diseñados para utilizarse con estas computadoras.En el otoño de 1978 Personal Software presenta VisiCalc, que juega un papel importante en la revolución de las microcomputadoras. Esta popular hoja de cálculo facilito el análisis numérico en el escritorio y permitió a cualquier persona escribir lo que equivalía a programas sin tener que aprender un lenguaje de programación complejo. El programa era

In f o r m á t i c a Méd i c a I 21

Page 22: Informática Médica I

In f o r m á t i c a Mé d i c a I

realmente una “calculadora visible” y su nombre es la asociación abreviada de esas palabras. La idea de este programa surgió de Dan Bricklin, que en esa época era estudiante de la Harvard Business School. Bricklin estaba utilizando las columnas e hileras de unas hojas de papel de contabilidad para analizar problemas de planeación financiera. Pero se requerían cálculos interminables cada vez que se hacía una suposición financiera diferente. Bricklin pensó que si se sustituían las hojas de papel por un “pizarrón electrónico” y “gises electrónicos”, la computadora podría encargarse de manipular los números. Bricklin le pidió a un programador amigo suyo llamado Bob Frankston que le ayudara a convertir su idea en un producto comercial. Frankston agregó varias funciones más y escribió el primer programa para la Apple II. VisiCalc se convirtió en un enorme éxito y fue responsable por sí solo de la venta de miles de Apple, muchas computadoras Apple II fueron vendidas con el propósito exclusivo de ejecutar VisiCalc. A medida que aparecía una nueva computadora, aparecía un nuevo programa clónico de VisiCalc por ejemplo, SuperCalc para las computadoras CP/M, Lotus 1-2-3 para IBM, y Excel para Macintosh. A finales de los 70’s e inicio de los 80’s, las máquinas líderes en el ramo se estaban utilizando en todas partes: en los hogares, escuelas y lugares de trabajo. Además, al comenzar la década de 1980, compañías como Atari y Commodore estaban produciendo sistemas de bajo costo para utilizarse en los hogares y se introducía una nueva generación de modelos de escritorios más poderosos para emplearse en las escuelas y oficinas. IBM entró en el mercado con su familia de computadoras PC logrando enorme éxito, aparecieron en forma paralela compañías pequeñas que ofrecían equipos y programas nuevos. IBM introduce su primera PC basada en el Intel 8088. Microsoft negocia con IBM para proporcionar el sistema operativo, PC DOS 1.0. Se ha informado que el código original de DOS fue comprado por Microsoft a un programador de Seattle por US$75.000. En 1982 Lotus 1-2-3 reemplaza a VisiCalc y se convierte rápidamente en una de las aplicaciones más exitosas. Apple intenta penetrar el mercado empresarial con la Lisa, pero la arquitectura cerrada (poca habilidad de añadir productos de otros fabricantes) dificulta su aceptación.

In f o r m á t i c a Méd i c a I 22

Page 23: Informática Médica I

In f o r m á t i c a Mé d i c a I

Cronología de las Computadoras Personales 1983: IBM debuta su IBM PC XT con un disco duro de 10MB. Compaq produce un sistema

compatible con la PC, pero transportable. Kaypro ofrece un sistema similar, con el CRT integrado, pero basado en CP/M. Microsoft Word 1.0 llega al mercado con poca espectacularidad, pero demostrando el interés de Microsoft en el software de aplicaciones.

1984: IBM introduce la IBM PC AT, un sistema basado en el Intel 80286 con varias

innovaciones, incluyendo un bus de expansión de 16 bits, un disco duro de 20 MB, y 512 K de RAM. Apple abandona la Lisa en favor de su nueva línea de computadoras personales, la popular Macintosh.

1985: Aparecen Microsoft Windows 1.0, Windows 2.03 y GEM de Digital Research,

demostrando así que el mundo de la PC se ha dado cuenta de que las aplicaciones gráficas estilo Mac, como Aldus PageMaker, son muy superiores a las de DOS.

1986: Intel introduce el microprocesador de 32 bits 80386 y Compaq desarrolla rápidamente

la primera computadora basada en el chip. IBM comienza a perder terreno frente a los fabricantes de sistemas clonicos.

1987: La Toshiba T1000, basada en el Intel 80C88, crea un nuevo estándar de

miniaturización. IBM intenta recuperar el mercado de la PC lanzando la familia PS/2. Estas PCs están basadas en una arquitectura Micro Channel no estándar y nuevo sistema operativo llamado OS/2 (creado en colaboración con Microsoft). Aparece en el mercado WordPerfect 4.2, que se convierte en el procesador de texto más exitoso hasta el momento.

1988: OS/2 1.1 añade una interfaz gráfica, llamada Administrador de Presentaciones, al

sistema operativo de 16 bits de IBM. 1990: La avalancha de interfases gráficas continua con la salida de Windows 3.0. Dieciocho

meses después, Microsoft saca al mercado de Windows 3.1. Miles de aplicaciones comienzan a emigrar de DOS a Windows.

1991: Microsoft e IBM rompen sus relaciones comerciales y crean dudas sobre el futuro de

OS/2. IBM continua apoyando el OS/2 y produce las versiones 2.0 y 2.1. Los acontecimientos de estos últimos años son frecuentes y cuantiosos. Las innovaciones a nivel de CPU son numerosas, pero el futuro de la computación personal se esta decidiendo por la arquitectura CISC (Computadora de Juego de Instrucciones Complejo) o RISC (Computadora de Juego de Instruciones Reducido).

Las líneas de batalla se dividen entre el chip PowerPC (creado por una colaboración de IBM, Apple y Motorola), el Alpha chip de Digital Equipment, el Pentium de Intel (y los chips clónicos de varios fabricantes). Con la creciente marea de maquinas de escritorio de 32 bits, los principales productores de software se apresuran para tratar de capturar el mercado de los sistemas operativos de 32 bits. Los contendientes, por el momento, son: Microsoft con Windows NT y Windows 95, IBM con OS/2 Warp, Novell con UnixWare, SunSoft con Solaris, y otras derivadas de Unix (como el NeXT Oparating System de Steven Jobs). La tendencia actual en el software de aplicaciones es la integración. Los proveedores de software se ven forzados a ofrecer paquetes completos y bien integrados para sobrevivir. En estos momentos se atraviesa por una etapa crucial de la computación

In f o r m á t i c a Méd i c a I 23

Page 24: Informática Médica I

In f o r m á t i c a Mé d i c a I

donde habrá ganadores y perdedores en todos los aspectos de la tecnología. Lo que si se sabe es que la industria de la computación seguir ampliando sus limites a una velocidad vertiginosa que no da señales de aminorar.

Características Principales

Los microprocesadores derivados de circuitos integrados han puesto las computadoras en el escritorio de la oficina. La cuarta generación, que comprende desde 1971 hasta el presente, se distingue por el microprocesador y la computadora personal. Las computadoras de la cuarta generación son aproximadamente 100 veces mas pequeñas que sus antecesoras y tan potentes como aquellas, y quizás mas. Tecnología: se incrementa la escala de integración (LSI, VLSI). Se puede integrar en un chip todo un procesador. Los computadores con microprocesador se llamaron microcomputadores.

Avances del equipo físico: más integración de las memorias; los discos duros tienen más capacidad; aparecen los coprocesadores para el tratamiento en punto flotante FPU y los gestores de memoria o MMU.Avances del equipo lógico: se normaliza el uso de la memoria virtual; los S.O. permiten la multitarea y el multiproceso; se producen avances en los lenguajes de alto nivel.

Principales Equipos que se destacan

Se pueden distinguir 4 fases:

1ª fase (1971 - 74): microprocesador de 4 bits, como el Intel 4004 con 2,300 TRT's y LSI.

2ª fase (1974 - 76): microprocesador de 8 bits, como el 8080 de Intel con 5,000 TRT's, el 6800 de Motorola con 6,000 TRT's, o el Z80 de Zilog.

3ª fase (1976 - 80): microprocesador de 16 bits, como el 8086 de Intel con 29,000 TRT's, el Z8000 de Zilog o el 68000 de Motorola.

4ª fase (1980 - 87): microprocesador de 32 bits, como el 80286 con 134,000 TRT's, el 80386 con 275,000 TRT's de Intel, o el 68020 y el 68030 de Motorola.

Época actual En esta época las computadoras han inundado prácticamente cada rincón del planeta, a tal punto que no se puede pensar hoy en día en una oficina, escuela o institución moderna sin hacer una relación a la informática y las computadoras. Los grandes empresarios de la computación, IBM, Microsoft, Intel, etc., han logrado lo que se propusieron: hacer que las computadoras personales estén en los hogares de cientos de personas. La red internacional de datos, Internet ha hecho posible que cada ciudadano de este planeta tenga cualquier tipo de información al alcance de su mano con solo tener acceso a una computadora personal. En tan solo 25 años, desde 1973 hasta 1998 los sistemas computacionales han tenido una rapidez vertiginosa, reduciendo grandemente el tamaño de los equipos y aumentando su capacidad de producción y rapidez. ¿Qué nos depara el futuro? Eso, aún está por verse.

In f o r m á t i c a Méd i c a I 24

Page 25: Informática Médica I

In f o r m á t i c a Mé d i c a I

LOS MICROPROCESADORES

La historia del microprocesador 4004 es la historia del primer microprocesador; sin embargo, como parte de la evolución de la familia Intel y su mercado de consumo, en 1978 llegó al mercado el primer ordenador personal de IBM, el cual contaba con un procesador 4004 de Integrated Electronics, que eventualmente cambiaría su nombre a Intel, 640KB de RAM, monitor Hércules ámbar y disco duro de 5 MB.

Un año más tarde apareció el microprocesador Intel 8008 con los mismos componentes básicos pero que trabajaba a 4,7 Mhz. Había empezado la vertiginosa evolución de los microprocesadores.

8080

La industria de la computación doméstica comercialmente exitosa comienza en 1974 cuando Integrated Electronics Corporation, que posteriormente cambiara su nombre a Intel, presentó su Unidad Central de Procesamiento en un circuito integrado denominado 8080, el cual contenía 4,500 transistores y podía manejar 64k de RAM a través de un transporte de datos de 8 bits. El 8080 fue el cerebro de la primera computadora personal, la histórica MITS Altair 8800, la cual promovió un gran interés en hogares y pequeños negocios a partir de 1975.

8086/8088

El microprocesador Intel 8086, oficialmente conocido como iAPX 86 es un microprocesador de 16 bits diseñado por Intel en 1978 basándose en los del 8080 y 8085 siendo compatibles con el lenguaje ensamblador y tiene un conjunto similar de registros expandidos a 16 bits.

Contaba con 4 registros generales de 16 bits que podían ser accesados como registros de 8 bits, y 4 registros de índice de 16 bits, incluyendo el apuntador de pila (stack pointer). Los registros de datos podían ser utilizados implícitamente por instrucciones, complicando el almacenamiento de valores temporales.

Contaba con puertos de E/S de 64K a 8 bits o 32k a 16 bits y interrupciones vectorizadas fijas. La mayoría de las instrucciones únicamente podían acceder una ubicación de memoria, por lo cual un operando tenía que ser un registro y el resultado era almacenado en uno de los operandos.

También tenía cuatro registros de segmentos que podían ser manipulados desde los registros de índice. Los registros de segmento permitían a la UCP accesar un megabyte de memoria en un modo inusual; en vez de proveer los bytes faltantes, como en la mayoría de los procesadores segmentados, el 8086 corría 4 bits hacía la izquierda el registro de segmento y lo agregaba a la dirección. Como resultado los segmentos se traslapaban, lo que la mayoría de las personas consideran ser un mal diseño. Aún cuando esto fue ampliamente aceptado e inclusive útil para el lenguaje ensamblador, donde el control de segmentos es total, esto causaba confusión en lenguajes que tienen uso intensivo de apuntadores, tales como C. Esto hacía compleja la representación eficiente de apuntadores, y hizo posible tener dos apuntadores con diferente valor apuntando a la misma ubicación de memoria. Aún peor, este esquema hizo muy complejo expandir el espacio de

In f o r m á t i c a Méd i c a I 25

Page 26: Informática Médica I

In f o r m á t i c a Mé d i c a I

direccionamiento a más de un megabyte, haciendo necesario cambiarlo, situación que llegó hasta el 80286. El microprocesador 8086 original tenía una velocidad de 4.77 MHz y eventualmente llegó a los 10 MHz.

El microprocesador 8086 no tenía instrucciones de punto flotante, pero se podía agregar esta funcionalidad a través de un coprocesador matemático externo, igualmente a manera de una pastilla de silicio. El Intel 8087 fue la versión estándar aunque fabricantes como Weitek ofrecieron alternativas de mayor desempeño.

La primera computadora personal comercialmente exitosa fue creada por IBM en 1981. En su interior había un microprocesador Intel 8088. Las prestaciones de este circuito resultan avanzadas para el momento, con 8 bits trabajando a 4,77 MHz, aunque bastante razonables para una época en la que el microprocesador de moda era el Z80 de Zilog, el motor de aquellos entrañables Spectrum que hicieron furor en esos tiempos, gracias sobre todo a juegos increíbles, con más gracia y arte que muchos actuales. El 8088 era una versión de 8 bits y prestaciones reducidas del 8086.

80186 / 80188

En Febrero de 1982 Intel introduce al mercado los microprocesadores Intel 80186 y el 80188, que son una versión mejorada de los 8086 y 8088, incluyendo un transporte de datos externo a 16 y 8 bits respectivamente, y una velocidad que iniciaba en los 6MHz.

Una de las principales características que incorporó Intel en su familia 8018x es la integración de la ALU, DMA, controladores de interrupción y temporizador en la misma pastilla ahorrando hasta 25 circuitos integrados en el diseño de la tarjeta madre, características que si bien le dieron supervivencia hasta nuestros días como microcontrolador, también marcaron su poca penetración en el mercado de las computadoras comerciales ya que no era del todo compatible con las tecnologías existentes.

Una de las pocas computadoras que utilizaron este microprocesador fue la Siemens PC-D.

80286

En Febrero de 1982, unos días después de la presentación del 80186, Intel presenta la siguiente generación de microprocesadores, el 80286 con velocidades iniciales de 6, 10, y 12 MHz, que con sus 134,000 transistores y 16 bits en la ruta de datos fue el microprocesador elegido para las primeras computadoras personales que llegaron al mercado en 1983. Este microprocesador fue fabricado con tecnología de 1.5 micrones, mejorando la anterior de 3.

Los avances tecnológicos que permitieron integrar varias funciones y servicios en el 80186/80188, fueron utilizados en el 80286 para crear un microprocesador que soportara multitarea. El 80286 tiene dos modos de operación: modo real y modo protegido. En el modo real, se comporta igual que un 8086, mientras que en modo protegido incluye gestión de memoria con la extensión natural de las capacidades de direccionamiento del procesador. El 80286 tiene circuitería incorporada para la protección de

In f o r m á t i c a Méd i c a I 26

Page 27: Informática Médica I

In f o r m á t i c a Mé d i c a I

datos. Otras características incluyen todas las características del juego de instrucciones del 80186, así como la extensión del espacio direccionable a 16 MB, utilizando 24 bits.

El 80286 contiene 134,000 transistores dentro de la pastilla, un incremento del 360% con respecto al 8086. Externamente llegó al mercado en varios encapsulamientos como el PLCC, PGA y LLC.

80386

En el año 1985 llegan al mercado los llamados 80386 trayendo consigo una nueva revolución tecnológica ya que se hablaba de una velocidad de proceso de 16-33 Mhz, la velocidad del bus de datos era dada por el procesador, aparece la llamada Memoria caché la unidad FPU (o coprocesador matemático se incluye en el mismo circuito procesador).

Estos chips ya son más modernos, aunque del Neolítico informático. Su ventaja es que son de 32 bits; o mejor dicho, el 386 es de 32 bits; el 386 SX es de 32 bits internamente, pero de 16 en el bus externo, lo que le hace hasta un 25% más lento que el original, conocido como DX. Lo curioso es que el original, el 386, sea el más potente. La versión SX fue sacada al mercado por Intel siguiendo una táctica comercial típica en esta empresa: dejar adelantos tecnológicos en reserva, manteniendo los precios altos, mientras se sacan versiones reducidas (las "SX") a precios más bajos. La cuestión es que ambos pueden usar software de 32 bits, aunque si lo que quiere usar en Windows 95 ni se le ocurra pensar en un 386 Suponiendo que tenga suficiente memoria RAM, disco, etc., prepárese para esperar horas para cualquier tontería. Su ámbito natural es DOS y Windows 3.x, donde pueden manejar aplicaciones bastante profesionales como Microsoft Word sin demasiados problemas, e incluso navegar por Internet de forma razonablemente rápida. Si lo que quiere es multitarea y software de 32 bits en un 386, piense en los sistemas operativos OS/2 o alguna variación de Unix.

80486

En 1989 aparecen los 80486 para dar una mejora a la serie anterior, con una velocidad de 25 – 100 Mhz, y de aquí se produjeron algunas ramificaciones de acuerdo a su arquitectura así:

486 SX, DX, DX2 y DX4 La historia se repite, aunque esta vez entra en el campo del absurdo de la mano de la mercadotecnia "Intel Inside". El 486 es el original, y su nombre completo es 80486 DX; consiste en: un corazón 386 actualizado, depurado y afinado; un coprocesador matemático para punto flotante integrado; una memoria caché de 8 Kb en el DX original de Intel). Es de notar que la puesta a punto del núcleo 386 y sobre todo la memoria caché lo hacen mucho más rápido, casi el doble, que un 386 a su misma velocidad de reloj (mismos MHz); aunque también falta tomar en cuenta que este es el primer microprocesador en trabajar a velocidad real de reloj, esto es porque las familias anteriores funcionaban únicamente cada tercer ciclo, es decir, que si el sistema contaba con un reloj de 66 MHz, el procesador trabajaba únicamente a 33 MHz.

En cuanto a los diferentes sabores de 486, el 486 SX es un DX sin coprocesador matemático. Para lo cual hay dos versiones históricas sobre esta diferencia que comienzan con la fabricación del DX, la primera reza que debido a las limitantes tecnológicas en el proceso de fabricación, el coprocesador no funcionaba y para no desecharlos, eran vendidos como SX; la segunda versión afirma que simple y sencillamente se le quemaba el coprocesador. Sea cual fuere el caso, en vez de "DX" se escribe "SX" sobre la pastilla de

In f o r m á t i c a Méd i c a I 27

Page 28: Informática Médica I

In f o r m á t i c a Mé d i c a I

silicio. La teoría dice que si lo haces y lo vendes más barato, sacas dinero de alguna forma. Lo dicho, alucinante. 486 DX2: o el "2x1": un 486 "completo" que va internamente el doble de rápido que externamente (eso es, al doble de MHz). Así un 486 DX2-66 va a 66 MHz en su interior y a 33 MHz en sus comunicaciones con la placa (memoria, caché secundaria...). Buena idea, Intel. 486 DX4: o cómo hacer que 3x1=4. El mismo truco que antes, pero multiplicando por 3 en vez de por 2 (DX4-100 significa 33x3=99 ã más o menos, 100). Que por qué no se llama DX3? El 4 es más bonito y grande... En este terreno Cyrix y AMD hicieron de todo, desde micros "light" que eran 386 potenciados (por ejemplo, con sólo 1 Kb de caché en vez de 8) hasta chips muy buenos como el AMD DX4-120 (40 MHz por 3), que rinde casi como un Pentium 75, o incluso uno a 133 MHz (33 MHz por 4 y 16 Kb de caché¡¡). Por cierto, tanto "por" acaba por generar un cuello de botella, ya que hacer pasar 100 ã ±33 MHz por un hueco para 33 es complicado, lo que hace que más que "x3" acabe siendo algo así como "x2.75" (que tampoco está mal). Además, genera calor, por lo que debe usarse un disipador de cobre y un ventilador sobre el chip. En un 486 se puede hacer de todo, sobre todo si supera los 66 MHz y tenemos suficiente RAM.

80486 DX, 80486 DX/2, 80486 DX/4, entre otros, estos presentaban un avance a gran escala para las nuevas tecnologías con una velocidad de 50, 66 y 100 Mhz, respectivamente.

Los 80486 SX, representaban la tecnología más lenta de la familia con una velocidad de 25 Mhz, sin caché o coprocesador matemático.

Pentium

Intel tuvo que enfrentar una demanda porque hasta la fecha había estado registrando sus productos con el código de producción, pero un juez determinó que no se podía registrar un número como marca privada, por lo que en lo sucesivo los procesadores tendrían nombres. El final de la saga del microprocesador 80486 se continúa con la presentación de los procesadores Pentium, que eventualmente serían conocidos como Pentium Clásico, en 1993, con velocidades que iniciaban en los 60, alcanzando los 200 MHz, 16 KB en memoria de prealmacenamiento de nivel 1 y 256 a 512 KB de nivel 2.

La secuencia que llevó esta familia de procesadores es la siguiente

• Pentium PRO. en 1995 100 –200 Mhz • Pentium con 166-233 Mhz • Pentium II (klamath) 233-300 • Pentium II con Bus de 66 Mhz • Pentium II con Bus a 100 Mhz • Celeron con velocidad de 266 con caché de 32 KB y tecnología MMX.

Y a medida que transcurre el tiempo nuevas tecnologías nacen dejando atrás las antiguas generaciones a pasos de gigante dejándolas en la historia. Por delante vendrían una larga serie de procesadores Pentium, que serían enumerados como II, III y IV.

In f o r m á t i c a Méd i c a I 28

Page 29: Informática Médica I

In f o r m á t i c a Mé d i c a I

Pentium II

En 1997 Intel presentó grandes cambios en el escenario de los microprocesadores con la liberación del microprocesador Pentium II, cuyo nombre clave era Klamath. Para este momento tenían el Pentium MMX y el Pro en el mercado fusionando ambas tecnologías en esta nueva generación de procesadores.

Este fue el primer microprocesador optimizado para aplicaciones a 32 bits que incorporaba el conjunto de instrucciones MMX y hereda la tecnología de ejecución dinámica del Pro, permitiendo al procesador predecir las próximas instrucciones, acelerando el flujo de trabajo. Analiza las instrucciones del programa y las reorganiza de tal forma que sean ejecutadas lo mas rápido posible.

Este microprocesador cuenta con 32Kb de memoria caché de nivel 1, 16KB para datos y 16KB para instrucciones, y 512 KB de memoria caché de nivel 2. La memoria caché de nivel 2 funciona a la mitad de la velocidad del procesador, sin embargo el hecho de que resida en la misma placa del microprocesador y no en la tarjeta madre mejora el desempeño. Esta situación fue mejorada hasta la liberación del Celeron A y el Pentium III.

El Klamath original funcionaba con una velocidad de transporte frontal de 66MHz y operaba a 233MHz llegando hasta los 300MHz.

En 1998 Intel mejoró el diseño y liberó Deschutes, que utilizaba tecnología de 0.25 micrones permitiendo una velocidad de transporte de datos de 100MHz logrando velocidades de procesador que iban desde los 333MHz hasta los 450MHz.

Celeron

Este microprocesador fue liberado en 1998 por Intel para entrar al mercado de consumo popular con una versión simplificada del Pentium II. El Celeron carece de memoria caché de nivel 2, soporte para doble procesador y la carcaza plástica que identificaba al Pentium II. Además de esto, el microprocesador únicamente funcionaba con un transporte frontal de datos a 66MHz.

La combinación de velocidad de transporte frontal de datos a 66MHz y la falta de memoria caché de nivel 2 redujo sensiblemente el desempeño del microprocesador, lo que dejaba una ventana de oportunidad a las empresas competidoras de Intel que ofrecían procesadores con mayor desempeño a la misma velocidad de reloj.

En la siguiente edición del Celeron, el Celeron 300A Intel corrigió estos errores liberando la velocidad de transporte frontal de datos e incorporando 128KB de memoria caché de nivel 2 en la misma pieza del microprocesador, lo que significa que funciona a la misma velocidad de reloj que el procesador, lo que redundó en que un Celeron podía operar aún mejor que un Pentium II con 512KB de memoria caché.

Con estas características, el Celeron se hizo famoso en los círculos de entusiastas que alteraban el reloj para obtener un mayor rendimiento, también conocido como sobrerrelojeo u overclocking.

In f o r m á t i c a Méd i c a I 29

Page 30: Informática Médica I

In f o r m á t i c a Mé d i c a I

Los Celeron originales utilizaban la ranura 1, pero eventualmente Intel comenzó a fabricarlos para formatos de Arreglos en Malla Plástica de Postes o formato PPGA por las siglas de su nombre en inglés Plastic Pin Grid Array, también conocido como zócalo 370.

Esta nueva interfaz permitió reducir los costos de fabricación además de que permitió una conversión más económica y sencilla para los fabricantes de tarjetas madre con zócalo 7. El Celeron original funcionaba de los 233 a los 433MHz, mientras que el de zócalo 370 funciona desde los 300MHz y más.

Pentium III

Debido a que las diferencias con el Pentium II son escasas, vamos a centrarnos en comparar ambos modelos.

Se le han añadido las llamadas S.S.E. o Streaming SIMD Extensions, que son 70 nuevas instrucciones orientadas hacia tareas multimedia, especialmente en 3D. Estas extensiones son el equivalente a las 3D Now que lleva implementando AMD desde hace tiempo en el K6-2, K6-III y Athlon y que también han incorporado otros fabricantes como IDT en sus Winchip2 y 3. Por supuesto, dicho juego de instrucciones a pesar de realizar operaciones similares en ambos procesadores son totalmente incompatibles entre sí...

Otra novedad importante es la posibilidad de utilizar las nuevas instrucciones junto con las actuales MMX y las operaciones con la FPU sin verse penalizado por ello. Hay que tener en cuenta que tanto en los procesadores de Intel anteriores como en los de AMD actuales a excepción del Athlon, combinar la utilización de instrucciones MMX junto con operaciones en coma flotante es prácticamente imposible debido al retardo que supone pasar de un modo a otro, con lo que los programadores se ven obligados a escoger entre uno u otro.

Otra de las novedades introducidas y también la más polémica es la incorporación de un número de serie que permite identificar unívocamente a cada una de las unidades, con lo que se obtiene una especie de "carnet de identidad" único para cada PC. Este ID se puede utilizar para realizar transacciones más seguras a través de Internet, y facilitar la vida a los administradores de redes, pero también ha sido duramente criticado por algunos grupos de presión como una invasión de la privacidad, con lo que Intel se ha visto obligada a ofrecer una utilidad que permite desactivar dicha función.

Es importante recalcar que todas estas nuevas características no sirven para nada si el software no las contempla, al igual que ocurría con las instrucciones 3DNow o con las ya hoy en día estándar MMX.

También es importante saber que las 3DNow, al llegar bastante tiempo en el mercado, están ya soportadas por múltiples programas, sobre todo juegos, entre otras cosas gracias al soporte por parte de Microsoft en sus DirectX.

El resto de características son idénticas a las de su hermano pequeño.

Está optimizado para aplicaciones de 32 bits.Se comercializa en versiones que van desde los 450 hasta los 600 Mhz.Posee 32 Kbytes de caché L1 (de primer nivel) repartidos en 16Kb. para datos y los otros

16 para instrucciones.La caché L2 (segundo nivel) es de 512 Kb. y trabaja a la mitad de la frecuencia del

procesador.

In f o r m á t i c a Méd i c a I 30

Page 31: Informática Médica I

In f o r m á t i c a Mé d i c a I

La velocidad a la que se comunica con el bus (la placa base) es de 100 Mhz.Incorpora 9,5 millones de transistores.Pueden cachear hasta 4 Gb.Los modelos actuales todavía están fabricados con tecnología de 0,25 micras.

Pentium IV

Microprocesador de séptima generación basado en la arquitectura x86 y manufacturado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de 2000.

Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que los demás procesadores de Intel, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron) y una orientada a servidores de gama alta (Xeon).

El Procesador de 3,06 GHz soporta Hyper Threading, un tecnología originalmente aparecida en los Xeon que permite al sistema operativo trabajar como si la máquina tuviese dos procesadores.

En abril de 2003, Intel colocó en el mercado nuevas variantes, entre los 2,4 y 3,0 GHz, cuya principal diferencia era que todos ellos incluían la tecnología Hyper-Threading y el FSB era de 800 MHz. Supuestamente esto era para competir con la línea Hammer de AMD, pero de momento solo la serie Opteron salió al mercado, la cual no estaba destinada entonces a competir con los Pentium 4. Por otro lado, los AMD Athlon XP, a pesar de su FSB aumentado de 333 a 400 MHz y las velocidades más altas no pudieron alcanzar a los nuevos Pentium 4 de 3,0 y 3,2 GHz. La versión final de los Northwood, de 3,4 GHz, fue introducida a principios de 2004.

En septiembre de 2003, Intel anunció el “Extreme Edition” del Pentium 4, apenas sobre una semana antes del lanzamiento del Athlon 64, y el Athlon 64 FX. El diseño era idéntico al Pentium 4 (hasta el punto de que funcionaría en las mismas placas madre), pero se diferenciaba por tener 2 MB adicionales de Memoria caché L3. Intel sostuvo que la Extreme Edition estaba dirigida a los jugadores de videojuegos, pero algunos tomaron esta nueva versión como un intento de desviar la atención del lanzamiento del AMD Athlon 64.

In f o r m á t i c a Méd i c a I 31

Page 32: Informática Médica I

In f o r m á t i c a Mé d i c a I

DESDE EL 8086 HASTA EL PENTIUM IV: LA HISTORIA

Tanto Intel como Microsoft deben gran parte de lo que son a su alianza inicial con IBM. Los primeros PCs que llegaron al mercado destacaban por sus procesadores fabricados por Intel y el sistema operativo desarrollado por Microsoft, ¿quien iba a decirle al gigante azul que su apuesta por dos jóvenes empresas iba a desembocar en la creación de sendos imperios que marcarían el rumbo de la sociedad del conocimiento?

Para Intel, todo empezó en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que conformarían el "motor" sobre el que rodaban los denominados IBM PC, precursores de los actuales computadores y que fueron todo un éxito de ventas a pesar de su coste "prohibitivo" en aquellos momentos.

El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico

avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.

En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de

ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de computadores en todo el mundo.

Microsoft también juega

El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz

In f o r m á t i c a Méd i c a I 32

Page 33: Informática Médica I

In f o r m á t i c a Mé d i c a I

de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico.

En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste.

Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos mínimos de informática.

Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del coprocesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos computadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso coprocesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.

Sin embargo, y por primera vez Intel se sentía acosado por nuevos competidores que aprovechaban el crecimiento del mercado para introducir procesadores más económicos y con una potencia semejante. Una firma veterana, AMD, se valió de un acuerdo firmado con Intel para lanzar "clónicos" de los populares 386 y 486 a precios más económicos. Esto era posible debido al acuerdo de intercambio de licencias y tecnología que ambas firmas firmaron a principios de los 80 y que les permitía convivir en buena lid en un mercado que no era tan feroz como el actual y donde las ventas, aunque importantes, eran limitadas a determinados mercados.

Con la llegada de los procesadores 386 y posteriormente la familia 486, el mercado de computadores de sobremesa se disparó y se inició la entrada del ordenador al hogar lo que supuso multiplicar por decenas las ventas que hasta en ese momento realizaban los fabricantes.

Uno de los grandes éxitos de AMD fue el procesador Am486 que conseguía una velocidad, tanto en bus como en procesador, de 40 Mhz. Intel se quedo anclado en sus dos versiones con bus de 25 y 33 Mhz para sus modelos de 50 y 66 Mhz respectivamente, una "velocidad inferior" a la conseguida por su competidor. AMD disfrutó siempre de esta ventaja, su bus

In f o r m á t i c a Méd i c a I 33

Page 34: Informática Médica I

In f o r m á t i c a Mé d i c a I

de datos ha sido mucho tiempo más rápido, y los entendidos sabían que la potencia del procesador no sólo se basa en la velocidad del micro.

También otra empresa, Cyrix plantaba cara a Intel. Apostó por el mercado de modelos económicos y también por computadores portátiles, arañando parcelas a Intel, que ya estaba preparando lo que debía ser la nueva generación de procesadores, más potentes y con mayores capacidades multimedia.

Llega el PentiumCon el nuevo procesador, Intel sacudió el mercado. En sus anuncios iniciales la compañía afirmaba que esta nueva gama de procesadores multiplicaría de forma general por cinco los rendimientos medios de los 80486. La prensa de todo el mundo auguraba un gran futuro para el nuevo procesador que fue inicialmente conocido como 586 y después P5, hasta que se desvelo su nombre definitivo.

Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías

dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, llegaron hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes.

Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio. Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.

Para detener la competencia de AMD, Intel protegió con patentes todo el procesador. De repente AMD se quedó sin un procesador que hiciera frente a la demanda de los Pentium y renovó sus 486 hasta multiplicarlos por 4, aunque el mercado quería Pentiums y no "trasnochados" 486.

La respuesta fue el K-5. Un procesador que llegó meses más tarde al mercado y que además presentaba algunos fallos importantes en su núcleo. A la desesperada, AMD engañó a algunos usuarios con un nombre de procesador que incluía una velocidad que no era la real. En esta época de 1992-1996, Pentium ganó una popularidad desbordante, Internet surgía y el márketing (y el rendimiento) de Intel hundía a AMD.

In f o r m á t i c a Méd i c a I 34

Page 35: Informática Médica I

In f o r m á t i c a Mé d i c a I

Pentium Pro y Pentium IILa aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz.

Posteriormente, Intel unificó las prestaciones del Pentium Pro con las del MMX para sacar al mercado el Pentium II, en una carrera alocada que el fabricante (junto a sus competidores) protagonizaron hasta el último de los Pentiums, el IV con una velocidad de 3 GHZ.

Del Pentium III al IVMientras Intel se confiaba, nacía NexGen, una nueva compañía que, aunque primeriza, creó un procesador espectacular para la época, aunque para nada conocido por culpa de su forma de conectarse a la placa que limitaba su difusión. La jugada de AMD le salvó la vida comercial. Compró NexGen, sus patentes, y mejoró sus diseños en la medida de lo posible. Así consiguió el K-6, un chip que superaba a Pentium, Pentium MMX e incluso se acercaba al Pentium II. Un impresionante despliegue para redescubrir la marca en el mercado hizo el resto.

AMD K6-2 fue un bombazo en el mercado, que compitió con Pentium II e incluso los primeros Pentium III. Los problemas de fabricación hicieron que AMD no pudiera continuar la racha con k-6 III, que no fue ni de lejos tan popular como su antecesor. Pentium jugó con varias posibilidades para hacerle frente, como la salida al mercado de Celeron, un micro de gama baja sin memoria caché que reducía espectacularmente el rendimiento del procesador, aunque se vendiera a unos Mhz (que no velocidad) mayores. Tuvo que arreglar el desaguisado, porque los pésimos resultados dejaron en ridículo a

la compañía, incorporando una pequeña caché en las versiones posteriores.

AMD sigue llamando a sus procesadores Athlon, y ya llegan a los 3GHZ, mientras que Intel sigue con su P4, incorporando mejoras como HiperThreading y EE.

AMD registraba pérdidas, sus éxitos no compensaban sus fracasos y la cuota de mercado se resistía. Necesitaba un golpe de efecto para seguir

viva, y lo consiguieron con Athlon (y su versión de bajo coste Duron). Fue un procesador superior a los de Intel en muchos aspectos. Pentium III reaccionó rápido y ambas empresas protagonizaron una interesante carrera por llegar al Ghz de velocidad. Intel se daba cuenta de la superioridad de AMD y presionaba a los fabricantes de placas para que no crearan placas compatibles con el nuevo sistema de conexión que introdujo AMD.

Mirando hacia delante, los caminos se separan. La arquitectura de los procesadores, la manera de crearlos, su "filosofía", ha evolucionado hacia los 64 bits. Ahora Intel decide que existe otra

manera de hacer las cosas que rompe con todo lo conocido hasta el momento. AMD cree

In f o r m á t i c a Méd i c a I 35

Page 36: Informática Médica I

In f o r m á t i c a Mé d i c a I

que es posible dar una nueva vuelta de tuerca a la arquitectura x86, presentando una nueva generación de este tipo de procesadores que ha acompañado siempre a los PC.

Lectura recomendada: La historia de la IBM PC

REDES Y COMUNICACIONES

Introducción

Este tema está dirigido a usuarios de computadores sin conocimientos previos en redes y comunicaciones. No es una introducción exhaustiva a las redes de computadores, sin embargo aporta una base suficiente sobre los conceptos generales y tecnologías comunes a la mayoría de redes y comunicaciones.

Durante el siglo pasado se desarrollaron una gran variedad de redes de comunicaciones, hasta alcanzar la situación actual, en la que rodean la Tierra y se extienden por el espacio. La radio, la televisión y el teléfono permiten que millones de personas estén en contacto, a menudo salvando distancias de miles de kilómetros.

Aunque los primeros sistemas de comunicación, como el telégrafo, utilizaban un código digital (el código Morse) para transmitir la información, el mayor peso de los desarrollos necesarios para dar lugar a estas redes de comunicación ha ido dirigido hacia la transmisión de voz e imagen, de forma analógica. Con la llegada de los computadores, la situación ha cambiado de nuevo. La información se envía en forma digital, cada vez en cantidades mayores. La combinación de computadores y redes de comunicaciones es una de las principales áreas de desarrollo en la actualidad, teniendo un impacto tan profundo en el estilo de vida de millones de personas como lo tuvieron la radio y el teléfono en su momento. Un proceso cualquiera de comunicación está constituido por un EMISOR que envía INFORMACIÓN a través de un CANAL de transmisión, la cual es recibida por un RECEPTOR. Podemos por tanto, hablar de comunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc. La información no es transmitida directamente, sino que se utilizan unos CÓDIGOS entendibles por el emisor y el receptor, y que se comunica mediante SEÑALES físicas. Los códigos serán el lenguaje utilizado y las señales las ondas sonoras, luminosas, etc. En muchos casos, la utilización de códigos y señales exigirá que la información sea CODIFICADA en la transmisión y DECODIFICADA en la recepción. Es decir, pueden ser codificadores/decodificadores los sentidos, los traductores, etc. El objetivo de un proceso de comunicación es que la información que se quiere transmitir sea idéntica a la que se recibe. Si falla cualquiera de los elementos que intervienen (transmisor, canal de transmisión o receptor), se producen pérdidas de información; para intentar evitarlo, se repiten los mensajes en su totalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) que permitan reconstruir la información. La comunicación suele ser en ambas direcciones alternativa o simultáneamente, convirtiéndose el transmisor en receptor y viceversa. Lo dicho de una forma general lo podemos extrapolar al mundo informático, con la intervención de diferentes máquinas que comunicarán las informaciones a diversos tipos de receptores. Las principales razones de ser de las comunicaciones informáticas son:

La necesidad de enviar y recibir datos

Compartir recursos. No todos los usuarios de un sistema informático van a poder disponer de un sistema adecuado a sus necesidades. Se ven pues obligados a compartir tanto los equipos como los programas

In f o r m á t i c a Méd i c a I 36

Page 37: Informática Médica I

In f o r m á t i c a Mé d i c a I

La compartición de carga. Consiste en distribuir el trabajo que supone el proceso de datos entre varios computadores (por ejemplo, en un banco, en hora punta, el ordenador central se puede encontrar saturado y puede pedir a otro que le ayude, distribuyendo así la carga de trabajo entre varios computadores).

Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones. Veremos cómo es posible conectar computadores y terminales. Un terminal puede ser "tonto" o inteligente. El primero consiste en un monitor y un teclado, y el segundo es un ordenador completo, es decir, se diferencian en que el terminal inteligente posee capacidad de procesode información de forma autónoma. Las redes se distinguen primeramente por la distancia existente entre sus terminales, clasificándose en:

WAN: Redes de Area Remota que interconexionan sistemas lejanos. LAN: Redes de Area Local que conectan sistemas cercanos.

Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial y fibra óptica). No se puede hablar de uno mejor que otro, sino de cuál es el más adecuado a cada necesidad y dependerá de las prestaciones, coste, fiabilidad de instalación y capacidad de integración con otros sistemas. Se diferencian también por la velocidad de transmisión. Esta se mide en bits por segundo frecuentemente confundida con baudios. El baudio es una unidad de velocidad de señalización, o de modulación, igual al número de condiciones discretas o símbolos que se suceden en la línea, por segundo. La velocidad de transmisión en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo representa un bit. Un baudio es el inverso del intervalo del pulso más corto de señalización medido en segundos. Un modem que transmite bits a una velocidad de 2400 bit/s, mediante un sistema de modulación cuaternario por modulación de fase, transmite 1200 símbolos por segundo, y por lo tanto la velocidad de modulación es de 1200 baudios. Un sistema que no emplee bit de parada ni de arranque tiene una velocidad de transmisión en bit/s igual a la velocidad de modulación en baudios. Un sistema de transmisión de 5 bit, con un pulso de arranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter de 100 ms, tiene una velocidad de señalización o modulación de:

1/(13.5*10-3) = 74 baudios

y una velocidad de transmisión de:

5/(100*10-3) = 50 bit/s

Las líneas pueden ser de los tipos siguientes:

• Líneas de banda estrecha (banda baja),• Líneas de banda de voz (banda media),• Líneas de banda ancha (banda alta).

El intercambio de información entre los distintos dispositivos tiene que estar regido por unos PROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas comunes para establecer la comunicación tanto para el receptor como para el emisor. Desde el comienzo de la industria informática, cada fabricante intentaba idear una serie de procedimientos, con los cuales podía controlar la información y así monopolizar el mercado de las ventas de los distintos elementos que componen la informática. Con el paso del tiempo esta industria se ha extendido tanto, que surgió la necesidad de compatibilizar los procedimientos de la información. Actualmente existen asociaciones de fabricantes de computadores, y organizaciones internacionales como por ejemplo ISO, que establecen unas recomendaciones sobre los procedimientos normalizados de comunicación, que van a

In f o r m á t i c a Méd i c a I 37

Page 38: Informática Médica I

In f o r m á t i c a Mé d i c a I

gobernar ese intercambio de información. Un protocolo es pues, un conjunto de procedimientos normalizados o estandarizados que gobiernan el intercambio de comunicaciones, acuerdos o convenios que se adoptan para poder establecer una comunicación correcta; afectan a las frecuencias de las señales, reconocimiento de la conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de las operaciones, establecimiento de los caminos por lo que irán los mensajes, asegurar que los datos han sido recibidos, etc.

Redes de computadores y sus tipos

Una red de computadores es una colección de equipos que pueden almacenar y manipular datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los demás. Las máquinas conectadas pueden ser microcomputadores, minicomputadores, grandes computadores, terminales, impresoras, dispositivos de almacenamiento, entre otros. En una red de computadores se puede almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes visuales como por ejemplo fotos. Las redes aportan beneficios, los más habituales son:

A) Compartir información de forma flexible

Una red de computadores permite a los usuarios compartir instantáneamente y sin esfuerzo la información. Por ejemplo, un editor de libros, escritores, asociaciones de editores y artistas pueden necesitar trabajar conjuntamente en una publicación. Mediante una red pueden compartir los mismos archivos electrónicos, cada uno desde su ordenador y transferir y copiar archivos. Estos pueden añadir material simultáneamente a los archivos, o eliminar partes, sin interrumpir el trabajo de los demás. Las ventajas son evidentes.

B) Libertad para elegir la herramienta adecuada

Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de compartir información inherente a la red. Esto permite trabajar con el equipamiento que más satisfaga a las necesidades del usuario. Por ejemplo en una red abierta a los estándares internacionales, pueden estar trabajando unos usuarios bajo Windows de PCs, mientras que otros lo pueden estar haciendo simultáneamente bajo UNIX®, en estaciones de trabajo odesde otros PCs.

C) Reducción de costos al compartir equipamiento

Una razón muy importante para disponer de una red de área local es el compartir equipamiento, lo cual implica grandes beneficios. Por ejemplo, en una red de veinte microcomputadores, se puede disponer de una impresora láser en color, para todo el conjunto, por lo que el ahorro sería considerable frente a la opción de que los veinte equipos no estuvieran conectados en red, e incluso dado el coste de este tipo de impresoras sería económicamente inviable el que cada usuario tuviera una de estas impresoras. Lo mismo que se ha visto en el caso previo, de la impresora de alta calidad, se puede concluir de otros dispositivos, como por ejemplo un grabador de DVD, un escaner de alta velocidad o un sistema de fax. En una situación de red se puede compartir cada uno de estos equipos, mientras que aisladamente sería improbable el que dispusiera cada usuario de ellos.

D) Uso flexible de la potencia de computación

Una de las ventajas más claras de una red, es la posibilidad de usar la potencia de un equipo de la red, distinto al que estamos trabajando. Por ejemplo si se han de realizar

In f o r m á t i c a Méd i c a I 38

Page 39: Informática Médica I

In f o r m á t i c a Mé d i c a I

cálculos matemáticos o de ingeniería complicados, se podrá acceder desde un punto de red, al equipo de dicho entorno que tenga potencia y rapidez suficiente para realizar estos trabajos en un tiempo razonable.

Otra alternativa es el procesamiento paralelo, es decir resolver el problema de cálculo mediante el trabajo simultáneo de varios equipos de la red. Algunos programas son demasiado complicados para poder ejecutarse en microcomputadores individuales, o tardarían mucho tiempo, pero mediante el procesamiento paralelo entre los diversos equipos de la red se aceleraría mucho el cálculo.

E) Comunicación efectiva y fácil con todo el mundo

Mediante las redes de área geográficas, se pueden interconectar redes de área local a escala mundial. De esta forma se puede transferir información, prácticamente de forma instantánea, a cualquier lugar.

Topología de red y tipos de redes

Datos frente a Información, rutinariamente se intercambian ambos términos, técnicamente no son lo mismo. Datos son entidades con un significado dado, son la forma de representar la información, pero no la información en sí misma. Para propósitos habituales la información son datos decodificados en forma legible. Por ejemplo, los datos de un fichero se pueden decodificar y mostrar en una pantalla de ordenador o trasladarlos a una impresora.

¿Cómo se transfieren los datos en una red?, para transferir señales entre computadores se necesitan: un medio de transmisión para portar las señales y dispositivos para enviar y recibir las señales.

A) Medios de transmisión de la red

Las señales eléctricas se generan como ondas electromagnéticas (señales analógicas) o como una secuencia de pulsos de voltajes (señales digitales). Para propagarse, una señal debe viajar a través de un medio físico, el llamado medio de transmisión. Hay dos medios de transmisión, guiados y no guiados. Los medios guiados se fabrican de forma que las señales se confinan a un canal de transmisión estrecho y que se puede predecir su comportamiento. Son habituales, los cables de par trenzado (como los telefónicos), cables coaxiales (como los de las antenas de televisión) y cables de fibra óptica. Ver apéndice sobre cables al final del tema. Los medios no guiados son partes del entorno natural, a través de los que se transmiten las señales bajo forma de ondas. Las frecuencias habituales se corresponden con el espectro de radioondas (VHF y microondas) u ondas de luz (infrarrojo o visible). Para planificar una red de computadores, se exige un medio de transmisión, o combinación de ellos, basándose en las circunstancias físicas, a la construcción de la red y las prestaciones que se requieren de ella. Un objetivo habitual es guardar el coste al mínimo, sobre la base de las necesidades planteadas.

B) Dispositivos de transmisión y recepción

Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen y reciban las señales a través del medio elegido. Estos pueden ser, adaptadores de red, repetidores, concentradores, transmisores diversos y receptores.

In f o r m á t i c a Méd i c a I 39

Page 40: Informática Médica I

In f o r m á t i c a Mé d i c a I

Adaptadores de red

Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que se instala directamente en un zócalo de expansión. Otros están diseñados para microcomputadores portátiles, por lo que consisten en un dispositivo pequeño, que se conecta a la salida de impresora o a una ranura PCMCIA. Estos adaptadores se fabrican en diversas versiones, de forma que se puedan conectar a cualquier tipo de medio guiado. También se pueden conectar a dispositivos que puedan transmitir mediante medios no guiados

Repetidores y Hubs

Se usan para incrementar las distancias a las que se puede propagar una señal de red. Cuando una señal viaja a través de un medio encuentra resistencia y gradualmente se hace más débil y distorsionada. Técnicamente este proceso se denomina atenuación.

Puentes (Bridges)

Permiten conectar una LAN a otra red con diferentes protocolos en los niveles físico y de enlace, pero siempre que en los niveles superiores usen los mismos protocolos.

Pasarelas (Gateways)

Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean para conexión entre diferentes redes locales, o entre locales y ampliadas (WAN).

Concentradores

Se usan en redes de microcomputadores para proporcionar un punto común de conexión para dispositivos. Todos los concentradores tienen repetidores

Transmisores de microondas

Los transmisores y receptores de microondas, especialmente satélites, se usan para transmitir señales a grandes distancias a través de la atmósfera. En EE.UU las principales bandas de microondas autorizadas para telecomunicaciones fijas están en el rango de frecuencias de dos a 40 GHz. Las licencias están concedidas para subrangos inferiores, por ejemplo el Gobierno Federal tiene una en el rango de 7.125 a 8.40 GHz, mientras que el rango de 10.550 a 10.680 está adjudicado a un usuario privado. A continuación se muestra un esquema del espectro electromagnético completo:

La figura muestra el proceso de transmisión que sufren las microondas en la atmósfera

In f o r m á t i c a Méd i c a I 40

Page 41: Informática Médica I

In f o r m á t i c a Mé d i c a I

Transmisores infrarrojos y láser

Son análogos a los de microondas. También usan la atmósfera como medio, sin embargo sólo son válidos para distancias cortas, ya que la humedad, niebla, obstáculos y otros fenómenos ambientales pueden causar problemas de transmisión.

Conectividad en distancias cortas

Las redes de área personal (WPAN) como tecnología de tercera generación, significan un impulso al proceso de convergencia entre las industrias informática y de comunicaciones. Desde el momento en que los teléfonos móviles se empiecen a utilizar masivamente como computadores se producirá una reestructuración del mercado. Los sectores de GPS, telefonía móvil, computadores y en general procesadores, dejarán de ser independientes. Estas redes trabajan en una banda de frecuencias de microondas, que no necesita licencia, 2.4 GHz. Las interferencias constituyen un problema en la tecnología radio en general que se manifiesta activamente en VLAN y también en distancias cortas o WPAN por cuanto trabaja en la banda sin licencia IMS de 2.4 GHz, como la iluminación de estadios y los hornos de microondas tanto dornésticos como industriales. En particular. es de gran relevancia la problemática ligada al efecto de las interferencias en sistemas de radio producidas por los hornos de microondas.

El dispositivo fundamental de un horno de microondas es, en lo que respecta a interferencias, el magnetrón de cavidades resonantes. El magnetrón cs un tubo oscilador empleado típicamente como oscilador de potencia en el transmisor de los sistemas de radar. En este tubo, el flujo de electrones desde el cátodo al ánodo se controla por medio de un campo magnético creado por un sistema de bobinas o bien un imán permanente ubicado en el magnetrón. El comportamiento de un magnetrón se puede analizar con relativa facilidad mediante procedimientos gráficos que, en esencia, se reducen a dos tipos: diagrama que relaciona mutuamente la intensidad de campo magnético, la corriente en el magnetrón, la variación de frecuencia, y la tensión entre ánodo v cátodo, así como el rendimiento; y diagrama de Rieke, que proporciona la relación existente entre la impedancia de carga y la frecuencia, por un lado, y el rendimiento, por otro Estos magnetrones de hornos de microondas son equipos de pequeña potencia en comparación con los magnetrones utilizados en radar. Típicamente, la potencia de salida de un magnetrón de horno de microondas está comprendida aproximadamente entre 650 y 3000 watios. Los hornos de microondas pueden emitir legalmente niveles significativos de fugas en las bandas ISM dentro de los límites establecidos por las normas de seguridad internacionales.

Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, en acuerdos adhoc con la industria de las comunicaciones. Un aspecto clave del tema de las interferencias en este contexto viene dado por el hecho de que magnetrones y hornos de microondas se diseñan para que funcionen en la región del diagrama de Rieke, donde tiene lugar la intersección de todas las líneas de frecuencia. Un ejemplo es el consorcio Bluetooth, que es un grupo de interés especial y promotor que agrupa a fabricantes en estos campos.

Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todos los dispositivos que conforman el escenario inalámbrico, para usuarios: computadores portátiles, teléfonos y dispositivos de mano, como por ejemplo PDA (asistentes digitales personales). El usuario, en el futuro, ya no utilizará un teléfono, un ordenador portátil o alguno de los dispositivos presentes en el mercado, sino un equipo comunicador.

In f o r m á t i c a Méd i c a I 41

Page 42: Informática Médica I

In f o r m á t i c a Mé d i c a I

BLUETOOTH

La tecnología Bluetooth se elabora en un chip que se integra en los diferentes equipos que conforman el entorno inalámbrico actual, como computadores portátiles, periféricos (ratón, impresoras...), PDA (Personal Digital Assistants) o teléfonos móviles, así como el futuro, en el que se contemplan, además de estos equipos clásicos del ámbito de la comunicación y la informática, otros del ámbito de la domótica. Se tiene así lo que se conoce como productos Bluetooth.

El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para no aumentar las dimensiones del chip y poder integrarlo con facilidad en los productos) y de muy baja potencia. Otra parte del chip es el circuito integrado de radiofrecuencia. Este circuito integrado tiene capacidad de autorregulación, lo que confiere un factor de ahorro de potencia, característica que es consustancial a las tecnologías inalámbricas en distancias cortas. En concreto, en el chip Bluetooth el consumo es menor del 3% de la potencia que consume un teléfono móvil.

El mecanismo de autorregulación funciona de la siguiente forma: cuando se detecta un receptor a una distancia corta el transmisor del circuito integrado es capaz de alterar la potencia de su propia señal para adaptarla al nivel adecuado; cuando se interrumpe la transmisión o disminuye el tráfico el sistema pasa a un estado de baja potencia. En este estado la verificación de conexión se realiza mediante una serie de señales cortas, es decir, se detectan, de forma periódica, los mensajes de búsqueda.

Bluetooth utiliza "spread spectrum", en concreto frequency hopping (salto de frecuencia). Estos sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales de salto (hopping). En el transcurso de una conexión se produce una transición brusca o salto de los transceptores de radio de un canal a otro de modo pseudoaleatorio. En sistemas FH, el ancho de banda instantáneo es relativamente reducido, si bien, hablando en términos generales, la dispersión o spread se obtiene a lo largo de la banda de frecuencias completa. Esto da lugar a transceptores de banda estrecha y de coste reducido que se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones. Para soslayar este factor se dispone de programas de corrección de errores cuya misión es el restablecimiento de los bits de error.

Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los posibles enlaces físicos son SC() ("Synchronous Connection Oriented") para voz y ACL ("Asynchronous Connectionless Link") para paquetes de datos. Los paquetes ACL se utilizan únicamente para información en forma de datos, mientras que SCO utiliza paquetes que contiene solamente audio o bien una combinación de audio y datos. Los paquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso con el que se identifica el paquete, una cabecera dedicada a información de control y un campo de carga alternativo.

La codificación de voz se realiza mediante la técnica de modulación CVSD (Continuoslv Variable Slope Delta) o modulación continua de inclinación delta, con lo que se consigue un buen nivel de inmunidad a errores de hit, que aparecen como un ruido de fondo. Los mecanismos de seguridad consisten en esquemas de autenticación (el proceso de probar la identidad de un cliente/usuario) basados en un mecanismo de exigencia-respuesta y de encriptación hasacla en cifrado el nivel básico.

Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las que se pueden obtener conexiones punto a punto y punto a multipunto. De momento, se ha conseguido

In f o r m á t i c a Méd i c a I 42

Page 43: Informática Médica I

In f o r m á t i c a Mé d i c a I

crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos los equipos que se encuentran en una misma picorred aparecen sincronizados.

El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o más unidades o equipos que compraten un canal. Una unidad controla el tráfico y las otras funcionan como elementos subordinados. Las picorredes pueden, a su vez, enlazarse siguiendo una arquitectura tipica del escenario inalámbrico que se utiliza habitualmente para generar flujos de comunicación mutua entre equipos inalámbricos y que normalmente se crea de forma espontánea sin necesitar un punto de acceso como parte integrante de la red. Un grupo de picorredes enlazadas constituye una red de dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar a extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas. El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza mediante los protocolos que conforman las capas de banda base y de enlace.

Modems

Un modem convierte señales digitales a analógicas (audio) y viceversa, mediante la modulación y demodulación de una frecuencia portadora. Se usan para transmitir las señales a través de líneas telefónicas. Las prestaciones de velocidad se han ido mejorando paulatinamente, hasta los actuales 56 kbaudios. Una tecnología que soporta velocidades superiores y gran calidad es la denominada ISDN o RDSI (Red Digital de Servicios Integrados), que como su nombre indica usa líneas telefónicas digitales. La desventaja es su precio más elevado. Este sistema consta de dos líneas de 64 k de velocidad que se pueden, mediante software, usar como una de 128 k, aunque como es lógico se paga la transmisión por las dos líneas (es decir cuesta el doble).

Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el acceso a Internet, pues permite la transmisión de información con una velocidad de hasta 8 Mbps, y es interoperativa con el sistema RDSI. Algunas variantes recientes transmiten con velocidad de hasta 20 Gigas.

Para líneas xDSL hay cuatro tipos de posibilidades:

DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según el sentido.

DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas

DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más velocidad (HDSL2)

DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidad está en función de la red. Se alcanzan velocidades de hasta 60 Mbit/s

Los principales fabricantes de circuitos integrados para estos dispositivos son: Alcatel Microelectronics, STMicroelectronics, Analog Devices Inc, Lucent Technologies Inc, Globespan Technologies Inc, Virata Corp. y ARM Holding Plc.

In f o r m á t i c a Méd i c a I 43

Page 44: Informática Médica I

In f o r m á t i c a Mé d i c a I

Topología de una red

Por topología de una red se entiende la forma en la que se conectan electrónicamente los puntos de dicha red. Las topologías existentes son tres: bus, árbol y estrella. Se han de tener en cuenta una serie de factores al seleccionar como más adecuada una topología, se describenseguidamente:

Complejidad. Este factor afecta a la instalación y mantenimiento de todo el cableado

Respuesta. El tráfico que puede soportar el sistema

Vulnerabilidad. La susceptibilidad de la topología a fallos o averías

Aplicación. El tipo de instalación en el que es más apropiada la topología

Expansión. La facilidad de ampliar la red y añadir dispositivos para cubrir grandes distancias.

A) Topología en BUS

Todas las estaciones (nodos) comparten un mismo canal de transmisión mediante un cable (frecuentemente coaxial). Las estaciones usan este canal para comunicarse con el resto.

Los factores de evaluación respecto a esta red son:

•Aplicación. Se usan en pequeñas redes y de poco tráfico

•Complejidad. Suelen ser relativamente sencillas

•Respuesta. Al aumentar la carga la respuesta se deteriora rápidamente.

•Vulnerabilidad. El fallo de una estación no afecta a la red. Los problemas en el bus son difíciles de localizar, aunque fáciles de subsanar.

•Expansión. Es muy sencilla.

Análisis comparativoVentajas

- El medio de transmisión es totalmente pasivo- Es sencillo conectar nuevos dispositivos- Se puede utilizar toda la capacidad de transmisión disponible- Es fácil de instalar

Inconvenientes

- El interfaz con el medio de transmisión ha de hacerse con dispositivos inteligentes- A veces los mensajes interfieren entre sí- El sistema no reparte equitativamente los recursos- La longitud del medio de transmisión no supera habitualmente los dos kilómetros

In f o r m á t i c a Méd i c a I 44

Page 45: Informática Médica I

In f o r m á t i c a Mé d i c a I

B) Topología en Anillo

Las estaciones se conectan formando un anillo. Ningún nodo controla totalmente el acceso a la red.

Los factores de evaluación respecto a esta red son:

•Aplicación. Es útil cuando se ha de asignar la capacidad de la red de forma equitativa, o cuando se precisen velocidades muy altas a distancias cortas, para un pequeño número de estaciones.

•Complejidad. La parte física suele ser complicada.

•Respuesta. Con tráfico muy elevado la respuesta permanece bastante estable, sin embargo el tiempo de espera medio es bastante elevado.

•Vulnerabilidad. El fallo de una sola estación o de un canal puede hacer que no sea operativo el sistema completo. Un fallo es difícil de localizar y no es posible la reparación inmediata.

•Expansión. Es bastante sencillo el añadir o suprimir estaciones.

Análisis comparativo

Ventajas

- La capacidad de transmisión se reparte equitativamente- La red no depende de un nodo central- Se simplifica al máximo la transmisión de mensajes- Es sencillo enviar un mismo mensaje a todas las estaciones- El tiempo de acceso es aceptable, incluso con mucho tráfico- El índice de errores es muy pequeño.- Se pueden alcanzar velocidades de transmisión elevadas.

Inconvenientes

- La fiabilidad de la red depende de los repetidores- La instalación es bastante complicada.

C) Topología en Estrella

Todas las estaciones están conectadas por separado a un nodo central, no estando conectadas directamente entre sí.

Los factores de evaluación respecto a esta red son:

•Aplicación. Es la mejor forma de integrar servicios de datos y voz

•Complejidad. Puede ser una configuración bastante complicada. Cada estación a su vez puede actuar como nodo de otras.

In f o r m á t i c a Méd i c a I 45

Page 46: Informática Médica I

In f o r m á t i c a Mé d i c a I

•Respuesta. Es bastante buena para una carga moderada del sistema. Afecta mucho la potencia del nodo central.

•Vulnerabilidad. Si falla el servidor central, se detiene la actividad de la red.. El fallo de una sola estación no afecta al funcionamiento del sistema

•Expansión. Es muy restringida. Es lógico, pues se ha de proteger el nodo central de sobrecargas.

Análisis comparativo

Ventajas

- Es ideal si hay que conectar muchas estaciones a una- Se pueden conectar terminales no inteligentes- Las estaciones pueden tener velocidades de transmisión diferentes- Permite utilizar distintos medios de transmisión- Se puede obtener un elevado nivel de seguridad- Es fácil la detección de averías

Inconvenientes

- Es susceptible de averías en el nodo central- Es elevada en precio- La instalación del cableado es cara- La actividad que ha de soportar el servidor, hace que las velocidades de

transmisión sean inferiores a las de las otras topologías.

Principales tipos de redes

Al hablar de "hardware" de red no hay más remedio que hablar de las implementaciones que existen en el mercado de ciertas normas creadas por el IEEE (Institute of Electrical and Electronics Engineers). Cada una de estas normas engloba toda una serie de características entre las que destacan la topología, velocidad de transferencia y tipos de cable. Para no entrar en temas excesivamente técnicos se describen dos: Ethernet y Token Ring.

ETHERNET: Utiliza topología bus. Como su velocidad de transferencia es alta (10 Mbit/s y las versiones más modernas 100 Mbit/s) puede ser utilizada en redes medias e incluso grandes. Pero, debido a su método de acceso, las prestaciones pueden caer si el tráfico es muy intenso. Por ello es recomendable estudiar el tipo de aplicaciones que se van a utilizar en la red. Fue el primer hardware de red presentado en el mercado, siendo ahora el más popular. La mayoría de fabricantes de computadores tienen implementaciones sobre Ethernet y gracias a ello, la conectividad con esta red es muy fácil. Utiliza cable coaxial de dos tipos y en su versión más moderna (10 Base T), cable UTP. Recomendada para entornos en los que deba convivir con equipos Digital o comunicaciones TCP/IP Para obtener amplia información sobre esta red se recomienda visitar la página web de Charles Espurgeons. Si se desea más información se puede acceder al tutorial de la empresa Lantronix.

TOKEN RING: Es la red IBM por excelencia. Cuenta con versiones de 4 y 16 Mbit/s lo que la hacía hasta hace poco tiempo una de las más rápidas. Por su velocidad y soporte de grandes distancias, es la más utilizada en redes grandes. Utiliza topología en anillo aunque en realidad el cable se hace en estrella. Ideal para conectividad con

In f o r m á t i c a Méd i c a I 46

Page 47: Informática Médica I

In f o r m á t i c a Mé d i c a I

IBM. No se recomienda para redes muy pequeñas ya que su coste es alto con respecto a las otras dos.

Sistemas Operativos de red

Vistos los diversos niveles OSI, se puede concluir que hay una complejidad elevada en las tareas de control de las comunicaciones en una red. El programa que realiza esta tarea se denomina sistema operativo de red, y ha de cumplir ciertos requerimientos:

Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser capaces de realizar varias tareas simultáneamente. De esta forma pueden realizar una lectura en disco al mismo tiempo que reciben otra petición a través de la red o imprimen un texto enviado por una estación de trabajo.

Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco, ya que éstos van a ser utilizados por más de un usuario. Para controlar gran capacidad de disco duro, necesitaran gran cantidad de memoria que deben direccionar.

Control de acceso: Si desea que los datos de todos los usuarios no dañados por error de una de ellos, el sistema operativo de red deberá incorporar un sistema que permita a los usuarios acceder sólo a los datos imprescindibles para su trabajo en la red.

Seguridad de datos: El disco duro de un servidor de archivos almacena muchos datos, muchos más que el de un PC aislado. Preservarlos justifica tener un sistema de seguridad que evite que un fallo de los componentes cause su perdida. Por ello los sistemas operativos de red tienen sistema de tolerancia de fallos que funcionan de forma automática y transparente para los usuarios.

Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma apariencia que les ofrecía el entorno local. El acceso a los periféricos de la red debe ser transparente y de la misma forma que si estuviera conectado en su estación. Sólo con ello se conseguirá facilidad de uso en la red.

En el mercado existen diversos sistemas operativos para red:

♦ NETWARE (de Novell) dispone de diversas modalidades, hace unos años era el más difundido.

♦ VINES (de Banyan) dirigido a entorno más amplios. Utiliza en los servidores el sistema operativo UNIX y de ahí le viene su compatibilidad casi total.

♦ Windows, se están imponiendo como S.O. de red, dado que tienen entornos fáciles de manejar, aunque como todos los productos Microsoft, son poco fiables.

♦ Linux está alcanzando gran difusión, siendo el S.O. más seguro. La gran mayoría de servidores de Internet operan bajo él.

In f o r m á t i c a Méd i c a I 47

Page 48: Informática Médica I

In f o r m á t i c a Mé d i c a I

INTERNETOrigenHace unos 45 años, la RAND Corporation, la primera fábrica de ideas de la América de la guerra fría, se enfrentó a un extraño problema estratégico. ¿Cómo se podrían comunicar con éxito las autoridades norteamericanas tras una guerra nuclear? La América post nuclear necesitaría una red de comando y control enlazada de ciudad a ciudad, estado a estado, base a base. Pero sin importar cómo esa red estuviera de protegida, sus líneas y equipos siempre serían vulnerables al impacto de bombas atómicas. Un ataque nuclear reduciría cualquier red imaginable a pedazos. ¿Cómo sería controlada esa red? Cualquier autoridad central, cualquier núcleo de red centralizado sería un objetivo obvio e inmediato para un misil enemigo. El centro de la red sería el primer lugar a derribar. La RAND le dio muchas vueltas a este difícil asunto en secreto militar y llegó a una solución atrevida. La propuesta de la RAND se hizo pública en 1964. En primer lugar, la red “no tendría autoridad central”. Además, sería “diseñada desde el principio para operar incluso hecha pedazos”. Los principios eran simples. Se asumiría que una red era poco fiable en cualquier momento. Se diseñaría para trascender su propia falta de eficacia. Todos los nodos en la red serían iguales entre sí, cada nodo con autoridad para crear, pasar y recibir mensajes. Los mensajes se dividirían en paquetes, cada paquete dirigido por separado. Cada paquete saldría de un nodo fuente específico y terminaría en un nodo destino.

Cada paquete recorrería la red según unos principios particulares. La ruta que tome cada paquete no tendría importancia. Solo contarían los resultados finales. Básicamente, el paquete sería lanzado como una patata de un nodo a otro, más o menos en dirección a su destino, hasta acabar en el lugar adecuado. Si grandes porciones de la red fueran destruidas eso simplemente no importaría; los paquetes permanecerían en la red en los nodos que hubieran sobrevivido.

Este sistema de envío tan arbitrario podría parecer "ineficiente" en el sentido usual del término (especialmente comparado con, por ejemplo, el sistema telefónico). Durante los 60, este intrigante concepto de red de conmutación de paquetes descentralizada y a prueba de bombas caminó sin rumbo entre el RAND, el MIT (Masachussets Institute of Technology) y UCLA (University of California in Los Angeles).

El Laboratorio Nacional de Física (National Physical Laboratory) de Gran Bretaña preparó la primera red de prueba basada en estos principios en 1968. Poco después, la Agencia de Proyectos de Investigación Avanzada del Pentágono (ARPA) decidió financiar un proyecto más ambicioso y de mayor envergadura en los Estados Unidos. Los nodos de la red iban a ser supercomputadores de alta velocidad (o lo que se llamara así en aquel momento). Eran máquinas poco usuales y de mucho valor y que estaban necesitadas de un buen entramado de red para proyectos nacionales de investigación y desarrollo.

En el otoño de 1969 el primero de esos nodos fue instalado en UCLA. En Diciembre de ese año había cuatro nodos en la pequeña red, que se llamó ARPANET después de que fuera promocionada por el Pentágono. Los cuatro computadores podían transferir información sobre líneas dedicadas de alta velocidad. Incluso podían ser programados remotamente desde otros nodos. Gracias a ARPANET, científicos e investigadores podían compartir las facilidades de otros computadores en la distancia.

Era un servicio muy útil ya que el tiempo de proceso de los computadores en los 70 era algo muy codiciado. En 1971 había quince nodos en ARPANET; en 1972, treinta y siete. Todo iba perfecto. En su segundo año de operatividad, sin embargo, algo extraño se hizo patente. Los usuarios de ARPANET habían convertido la red en una oficina de correos electrónica de alta velocidad subvencionada federalmente. La mayor parte del tráfico de ARPANET no era el proceso de datos a largas distancias. En vez de eso, lo que se movía por allí eran noticias y mensajes personales. Los investigadores estaban usando ARPANET para colaborar en proyectos, intercambiar notas sobre sus trabajos y, eventualmente, chismorrear. La gente

In f o r m á t i c a Méd i c a I 48

Page 49: Informática Médica I

In f o r m á t i c a Mé d i c a I

tenía sus propias cuentas personales en los computadores de ARPANET y sus direcciones personales de correo electrónico. No es que sólo utilizaran ARPANET para la comunicación de persona a persona, pero había mucho entusiasmo por esta posibilidad -mucho más que por la computación a larga distancia. Eso no pasó mucho antes del invento de las listas de distribución, una técnica de emisión de información por ARPANET mediante la cual un mismo mensaje se podía enviar automáticamente a una gran cantidad de subscriptores.

Es interesante que una de las primeras listas de distribución masivas se llamara "Amantes de la Ciencia Ficción" (SF- LOVERS). Discutir sobre ciencia ficción en la red no tenía nada que ver con el trabajo y eso enfadaba a muchos los administradores del sistema ARPANET, pero eso no impediría que la cosa siguiera. Durante los 70, ARPANET creció.

Su estructura descentralizada facilitó la expansión. Contrariamente a las redes standard de las empresas, la red de ARPA se podía acomodar a diferentes tipos de computador. En tanto en cuanto una máquina individual pudiese hablar el lenguaje de conmutación de paquetes de la nueva y anárquica red, su marca, contenidos e incluso su propietario eran irrelevantes.

El estándar de comunicaciones de ARPA era conocido como NCP, "Network Contro Protocol", pero según pasaba el tiempo y la técnica avanzaba, el NCP fue superado por un stándar de más alto nivel y más sofisticado conocido como TCP/IP. El TCP o "Trasmision Control Protocol," convierte los mensajes en un caudal de paquetes en el computador fuente y los reordena en el computador destino. El IP, o "Internet Protocol", maneja las direcciones comprobando que los paquetes caminan por múltiples nodos e incluso por múltiples redes con múltiples estándards -no sólo ARPA fue pionera en el stándar NCP, sino también Ethernet, FDDI y X.25. En 1977, TCP/IP se usaba en otras redes para conectarse a ARPANET. ARPANET estuvo controlada muy estrictamente hasta al menos 1983, cuando su parte militar se desmembró de ella formando la red MILNET. Pero el TCP/IP las unía a todas. Y ARPANET, aunque iba creciendo, se convirtió en un cada vez más pequeño barrio en medio de la vasta galaxia de otras máquinas conectadas. Según avanzaban los 70 y 80, distintos grupos sociales se encontraban en posesión de potentes computadores. Era muy fácil conectar esas máquinas a la creciente red de redes. Conforme el uso del TCP/IP se hacía más común, redes enteras caían abrazadas y adheridas a Internet. Siendo el software llamado TCP/IP de dominio público y la tecnología básica descentralizada y anárquica por propia naturaleza, era muy difícil parar a la gente e impedir que se conectara. De hecho, nadie quería impedir a nadie la conexión a esta compleja ramificación de redes que llegó a conocerse como "Internet". Conectarse a Internet costaba al contribuyente muy poco o nada desde que cada nodo era independiente y tenía que arreglárselas con la financiación y los requerimientos técnicos.

Cuantos más, mejor. Como la red telefónica, la red de computadores era cada vez más valiosa según abarcaba grandes extensiones de terreno, gente y recursos. Un fax solo es útil si "alguien más" tiene un fax. Mientras tanto no es más que una curiosidad. ARPANET, también, fue una curiosidad durante un tiempo. Después la red de computadores se convirtió en una necesidad importante. En 1984 la Fundación Nacional para la Ciencia (National Science Foundation - NSF) entró en escena a través de su Oficina de Computación Científica Avanzada (Office of Advanced Scientific Computing). La nueva NSFNET supuso un paso muy importante en los avances técnicos conectando nuevas, más rápidas y potentes supercomputadoras a través de enlaces más amplios, rápidos, actualizados y expandidos según pasaban los años, 1986, 1988 y 1990. Otras agencias gubernamentales también se unieron: NASA, los Institutos Nacionales de la Salud (National Institutes of Health), el Departamento de Energía (Departament of Energy), cada uno manteniendo cierto poderío digital en la confederación Internet.

Los nodos de esta creciente red de redes se dividían en subdivisiones básicas. Los computadores extranjeros y unos pocos americanos eligieron ser denominados según su localización geográfica. Los otros fueron agrupados en los seis "dominios" básicos de

In f o r m á t i c a Méd i c a I 49

Page 50: Informática Médica I

In f o r m á t i c a Mé d i c a I

Internet: gov, mil, edu, com, org y net. (Estas abreviaturas tan sosas pertenecen al estándar de los protocolos TCP/IP). Gov, Mil y Edu definen al gobierno, militares e instituciones educativas, las cuales fueron, por supuesto, las pioneras de la ARPANET que comenzó como un experimento de alta tecnología en seguridad nacional. Com, sin embargo, definía a instituciones "comerciales", que enseguida entraron a la red como toros de rodeo rodeadas por una nube de entusiastas "orgs" sin ánimo de lucro. (Los computadores tipo "net" servían como pasarelas entre redes).

La red ARPANET propiamente dicha expiró en 1989 como víctima feliz de su éxito abrumador. Sus usuarios apenas se dieron cuenta, pero las funciones de ARPANET no solo continuaron sino que mejoraron firmemente. El uso del estándar TCP/IP para redes es ahora algo global. En 1971, hace 21 años, sólo había cuatro nodos en la red ARPANET. Hoy existen decenas de miles en Internet esparcidos por más de cien países y muchos más que se conectan cada día. Millones de personas ya usan y dependen de esta gigantesca madre-de-todas-las-redes. Internet es especialmente popular entre los científicos, académicos y es probablemente su instrumento más importante desde finales del siglo XX. Las posibilidades que ofrece, tan potentes y sofisticadas, de acceso a datos específicos y a la comunicación personal ha elevado la marcha de la investigación científica enormemente y el desarrollo de las ideas ha dado un nuevo giro al poder compartir el conocimiento en línea. Su primer fruto fue el proyecto del genoma humano.

El índice de crecimiento de Internet a comienzos de los 90 fue espectacular, casi feroz. Se extendió más rápidamente que los teléfonos móviles y que el fax. En 1995 Internet crecía a un ritmo del 25% mensual. El número de computadores con conexión directa al TCP/IP se ha estado doblando anualmente desde 1990. Internet se desplazó rápidamente de su origen militar y científico a las escuelas de enseñanza básica e institutos, al mismo tiempo que a bibliotecas públicas y luego a todo el sector comercial. ¿Por qué la gente quiere estar "en Internet"? Una de las principales razones es simplemente la libertad. Internet es un raro ejemplo de anarquía verdadera, moderna y funcional. No existe "Internet, S.A." No hay censores oficiales, ni jefes, ni junta directiva, ni accionistas, no hay leyes ni reglas. Todo lo que hay es libertad.

En principio, cualquier nodo puede hablar de igual a igual a otros nodos siempre que obedezcan las leyes del protocolo TCP/IP, leyes que no son políticas sino estrictamente técnicas. (Ha existido controversia sobre el uso comercial de Internet, pero esta situación está cambiando según los negocios proporcionan sus propios enlaces y conexiones). Internet también es una ganga. Internet en conjunto, a diferencia del sistema telefónico, no cuesta dinero según las distancias. Y a diferencia también de la mayoría de las redes comerciales, no se cobra por tiempo de conexión. De hecho, "Internet" de por sí, que ni siquiera existe como una entidad, no cobra "nada" por nada. Cada grupo de gente que accede a Internet es responsable de su propia máquina y de su propio trozo de línea. La "anarquía" de Internet puede parecer extraña o incluso poco natural, pero tiene cierta profundidad y sentido. Es como la "anarquía" del idioma: nadie alquila el idioma y nadie lo posee, este solo fluye, se transforma y evoluciona libremente entre las personas.

Depende de uno aprender a hablar correctamente y usar el idioma para lo que quieras. Aunque mucha gente se gana la vida usando, explotando y enseñando inglés, francés y otros idiomas, el idioma como institución es una propiedad pública, un bien común. Mucho de eso ocurre con Internet. ¿Mejoraría el castellano si "Castellano S.A." tuviera un consejo de administración con su director o ejecutivo al frente, un presidente y una asamblea? Probablemente existirían muchas menos palabras en el idioma, y muchas menos nuevas ideas. La gente en Internet siente que se trata de una institución que se resiste a la institucionalización. El interés pertenece a todos y a nadie. A pesar de esto, hay quién tiene intereses en Internet.

Los negociantes quieren que Internet tenga una base financiera. Los gobernantes la quieren más regulada. Los académicos la quieren para fines de investigación. Los militares para la

In f o r m á t i c a Méd i c a I 50

Page 51: Informática Médica I

In f o r m á t i c a Mé d i c a I

seguridad. Y así muchos más. Todas estas fuentes de conflicto permanecen en torpe equilibrio, e Internet, hasta ahora, se mantiene en próspera anarquía. Antes, las líneas de alta velocidad de la NSFnet eran conocidas como la "espina dorsal de Internet" (Internet Backbone), y sus propietarios podían señorearse con el resto de Internet; pero hoy existen "espinas dorsales" en Canadá, Japón y Europa, e incluso algunas privadas para el tráfico comercial. Hoy, incluso computadores domésticos privados pueden convertirse en nodos de Internet. Se pueden llevar bajo el brazo. Pronto, quizás, en la muñeca. Pero, ¿Qué se “hace” en Internet? Básicamente, cinco cosas: búsqueda de información, correspondencia, grupos de discusión (chat), computación a larga distancia y transferencia de archivos. El correo de Internet es el correo electrónico (e-mail), mucho más rápido que el correo postal y no tienes que pagar por él (al menos directamente) y es a escala global. Por correo electrónico se pueden mandar archivos de todo tipo: documentos, imágenes, sonidos, videos, etc. Se está trabajando en nuevas formas de correo electrónico.

Los grupos de discusión, o "newsgroups", son un mundo aparte. Este mundo de debate y argumentaciones se conoce como "USENET". USENET es de hecho diferente a Internet. USENET es como una multitud ondulante de gente chismosa y con ganas de información que se mueve por Internet en busca de barbacoas de patio trasero. USENET no es tanto una red física como un conjunto de convenciones. En cualquier caso, ahora existen 2.500 grupos de discusión separados en USENET y sus mensajes generan unos 7 millones de palabras al día. Naturalmente se habla mucho sobre computadores en USENET, pero la variedad de temas sobre los que se habla es enorme, creciendo estos continuamente.

En USENET se distribuyen varias publicaciones electrónicas gratuitas de manera periódica. Estos grupos y el correo electrónico están disponibles fácilmente, incluso fuera del corazón de Internet. Se puede acceder a ellos a través de las líneas de teléfono normales, desde otras redes como BITnet, UUCP y Fidonet. Los últimos servicios de Internet, computación a larga distancia y trasferencia de archivos, requieren de conexión directa usando TCP/IP. La computación a larga distancia fue algo pensado para ARPANET y aún se usa mucho, al menos por algunos. Los programadores pueden mantener sus cuentas abiertas en poderosos super-computadores y ejecutar allí sus programas o crear otros nuevos. Los científicos pueden usar potentes computadores desde otros continentes.

Las bibliotecas ofrecen sus catálogos electrónicos para que se busque en ellos gratuitamente. Enormes catálogos en CD-ROM están disponibles a través de este servicio. Y existe mucho software gratuito al mismo tiempo. La tranferencia de archivos permite a los usuarios acceder a máquinas remotas y tomar de ellas programas o textos. Muchos computadores de Internet - unos dos mil o más - permiten que se acceda a ellos de manera anónima y que la gente use sus archivos de manera gratuita. Esto no es algo trivial, ya que libros enteros se pueden transferir en cuestión de minutos. Hoy existen millones de archivos públicos disponibles a quién los quiera utilizar (y otros millones disponibles a gente con autorización).

La transferencia de archivos por Internet se está convirtiendo en una nueva forma de publicación, en la que el lector copia electrónicamente el texto que desee en la cantidad que quiera y de forma gratuita. Nuevos programas de Internet, como "ARES", "EMULE" y "KAZAA" se han desarrollado para catalogar y explorar esa cantidad de material. Esta Internet sin cabeza, anárquica y con millones de tentáculos se está extendiendo como el pan de molde. Cada computador con la potencia suficiente es una espora potencial de Internet y hoy los computadores se venden a menos de 500 dólares y están disponibles en todo el mundo. La red ARPA, diseñada para asegurar el control de una sociedad desolada después de un holocausto nuclear, ha sido sobrepasada por su hija mutante, Internet, que está a fuera de control a conciencia y se expande exponencialemente por la aldea global de la post guerra fría.

In f o r m á t i c a Méd i c a I 51

Page 52: Informática Médica I

In f o r m á t i c a Mé d i c a I

La expansiónLa expansión de Internet en los 90 se parece a la que sufrió la informática personal en los 70, aunque esta es más rápida y más importante. Más importante, quizás, porque da a los computadores personales una imagen de algo barato, de fácil acceso y con posibilidades de almacenaje a una escala realmente planetaria. El futuro de Internet pasa por ser más grande y con velocidades exponencialmente mayores. La comercialización de Internet es un tema candente hoy día, donde se promete cualquier tipo de comercialización salvaje de la información. El gobierno federal, agradecido por este éxito inesperado, aún tiene mucho que decir en esto. La NREN (National Research and Educational Network - Red Nacional de Educación e Investigación), fue aprobada en el otoño de 1991 como un proyecto a cinco años y con un presupuesto de dos billones de dólares para que la red troncal de Internet fuera actualizada. NREN será unas 50 veces más rápida que la red más rápida de hoy día permitiendo la transferencia de la Enciclopedia Británica en un segundo. Las redes de computadores permitirán gráficos animados en 3-D, enlaces de radio y teléfonos móviles a computadores portátiles, fax, voz y televisión de alta definición. ¡Un circo global multimedia! O al menos así se espera - y se planea. La Internet real del futuro debe soportar pocos parecidos con los planes de hoy. Prever las cosas nunca ha tenido mucho que ver con el rápido desarrollo de Internet. Después de todo, Internet se parece muy poco a aquellos sombríos planes del RAND para el post-holocausto. Esto resulta ser una sutil y feliz ironía. ¿Cómo se accede a Internet? Bien -- si no se tiene un computador y un modem, hay que hacerse con uno. El computador puede actuar como una terminal y se puede usar una línea de teléfonos ordinaria para conectarse a una máquina enganchada a Internet. Simplemente esto puede hacer que se tenga acceso a los grupos de discusión y a una dirección de correo electrónico propia. Merece la pena tener estos servicios -- aunque sólo con el correo y las noticias no se está del todo "en Internet". Si está ud. en un campus, la universidad puede que tenga "acceso directo" a líneas TCP/IP de Internet de alta velocidad. Hágase con una cuenta de Internet en un computador del campus y será capaz de utilizar los servicios de computación remota y la transferencia de archivos. Algunas ciudades como Cleveland proporcionan acceso gratuito a la red. Las empresas tienen cada vez más posibilidades de acceso y están deseando vender esos accesos a sus clientes. La cuota estándar es de unos 40 dólares al mes -más o menos como el servicio de TV por cable. Según avancen los 90, encontrar acceso a Internet será mucho más fácil y barato. Su facilidad de uso también mejorará del salvaje interface UNIX del TCP/IP a otros muchos más intuitivos y cómodos para el usuario, eso es una buena noticia. Aprender Internet ahora, o al menos aprender sobre Internet, es para entendidos.

Cuando cambiemos de siglo la "cultura de redes", tal como la "cultura de los computadores" antes de esta se verá forzada a introducirse en el ámbito de su vida.

Irc

Jarkko Oikarinen, del departamento de Ciencias de Procesos de la Información de la Universidad de Oulu, en Finlandia, desarrolló el Internet Relay Chat (IRC) a finales de agosto de 1988. Su idea era crear un programa de comunicaciones que permitiera a los usuarios de OuluBox (una BBS de acceso público administrada por el departamento) tener "un estilo de discusión similar a USENET... con discusiones en tiempo real" según explica Oikarinen. Cuando Oikarinen empezó su trabajo, OuluBox tenía un programa llamado MultiUser Talk (MUT) que fue desarrollado por Jukka Pihl. MUT permitía a los usuarios conversar en tiempo real, pero no existía el concepto de canal, primordial en el IRC. Los canales permiten a los usuarios entrar en diferentes discusiones conectándose a algunos de ellos. Usar MUT era como tener un sistema de IRC de un solo canal. Es muy difuso lo que pasó después en el desarrollo del IRC, ya que no existen registros hechos por Okarinen o alguna de las personas que participaron y mejoraron su tecnología. Lo que está claro es que

In f o r m á t i c a Méd i c a I 52

Page 53: Informática Médica I

In f o r m á t i c a Mé d i c a I

en 1989 Okarinen convenció a varios amigos en otras universidades Finlandesas y Suecas para que instalaran el programa servidor de IRC en sus computadores, que estaban conectados a la red Finlandesa, inspirada en la americana American BITNET. Después de que otras universidades finlandesas empezaran a usar IRC, estas siglas empezaron a extenderse ampliamente. Jeff Trim, de la Universidad de Denver y David Bleckman y Todd Ferguson, de la de Oregon State prepararon los primeros servidores IRC fuera de Escandinavia. Estaban conectados a los servidores originales y los usuarios de Denver y Oregon State podían chatear con usuarios de Finlandia y Suecia. El IRC empezó a crecer rápidamente y a ser cada vez más global. En agosto de 1990, la red de servidores IRC, que había crecido de 1 a 38 en dos años, se dividió en varias redes. Un mes más tarde, el número había crecido a 117, 86 de los cuales enviaban sus estadísticas de uso a Okarinen. En las estadísticas de esos servidores había tan solo 41 usuarios. En Enero de 1991 desarrollaba la guerra del Golfo y muchos usuarios alrededor del mundo conectaban sus computadores para obtener las últimas noticias desde Kuwait. Los kuwaitíes que tenían PCs eran capaces de remitir diariamente las atrocidades ocurridas bajo la ocupación Iraquí. Debido al uso del IRC por los Kuwaitíes durante la guerra del Golfo, el número de usuarios del IRC alcanzó la cima de 300. En marzo de 1991, había por primera vez más servidores norteamericanos (69) que de otro país (66). El uso del IRC creció explosivamente entre la guerra del Golfo y el mes de octubre de 1995 donde se producían más de 15.000 visitas a los servidores de IRC. En abril de 1997, se producían alrededor de 30.000 visitas al mes. El uso del IRC ha crecido enormemente en los últimos años, pero no tanto como el uso del WWW o el correo electrónico. El IRC viene a ser una tecnología de especialistas en manos de usuarios que saben leer y escribir. Al igual que INTERNET y la mayoría de su tecnología, el protocolo y código fuente del IRC no tiene Copyright. Esto ha hecho posible a mucha gente verse envuelta en su desarrollo.

Fuente: "History of the Internet, WWW, IRC, and MUDs" by Robin Hamman

http://www.socio.demon.co.uk/history.html

Referencia: Para una revisión más exhaustiva de Internet consultar:

http://www.infase.es/FORMACION/INTERNET/contenido.html

In f o r m á t i c a Méd i c a I 53

Page 54: Informática Médica I

In f o r m á t i c a Mé d i c a I

El CORREO ELECTRONICO

Historia

El Departamento de Defensa de los EE.UU., con la ayuda de universidades y de algunos abnegados estudiantes puso en marcha la ARPANET, la predecesora de la Internet. En este contexto se tiene la primera transmisión de un e-mail en el año 1971. Se considera a Ray Tomlinson como el creador del moderno correo electrónico. Fue él quien escogió la arroba @ como separador entre la dirección de correo y el nombre del servidor. De manera que puede afirmarse que el correo electrónico es anterior a Internet. La primera aplicación útil que se hizo apenas se instaló la primera red de computadoras, fue establecer una comunicación de un puesto a otro, es decir, enviar un mensaje para que el otro pudiera leerlo y responder. Esto fue el nacimiento del correo electrónico y el chat. En 1982 se publicó apresuradamente el protocolo SMTP que es el que se usa hasta hoy en los correos electrónicos.

El e-mail en las redes informáticas

Con la llegada de las computadoras personales, la idea de una red cambió totalmente. Cada día más empresas instalaban LANs (Local Area Network) o redes locales de PCs, o INTRANET, que a su vez tenían la posibilidad de conectarse a otras LAN, directamente o mediante una conexión remota. Así surge inevitablemente una gran red mundial llamada la INTERNET.

La INTRANET y el e-mail.

Figura 1

El e-mail comenzó cuando se vislumbró la posibilidad de que varias personas que trabajan juntas en una empresa con una LAN o INTRANET, pudieran comunicarse e intercambiar ideas, proyectos y documentos desde su PC, sin desplazarse ni salir de su oficina. Se le llama INTRANET a la red local que se comunica empleando el protocolo TCP/IP. Esta idea se implementó como se muestra en la figura 1, pero luego se vislumbró la posibilidad de que un usuario pudiera acceder al sistema en forma remota, es decir, sin estar conectado directamente a la LAN, sino por medio de una línea telefónica y un MODEM, como se muestra abajo.

In f o r m á t i c a Méd i c a I 54

Page 55: Informática Médica I

In f o r m á t i c a Mé d i c a I

El siguiente paso en la expansión fue conectar varias LAN para que intercambiaran los mensajes dirigidos a sus usuarios, Figura 3. Esta implementación incluye una dificultad adicional porque cada servidor de correo debe conocer a sus usuarios locales (conectados a su red) y a los remotos (los de la otra red). Por esto se hizo necesaria la introducción de las direcciones de correo con dominios.

El proceso de envío de un mensaje de correo, consistía originalmente en un usuario recibiendo el mensaje en un programa llamado “cliente de correo” (en contraposición con el “servidor de correo”), que consistía de un editor de textos con, posiblemente, un corrector ortográfico, una libreta de direcciones, un administrador de archivos (los mensajes recibidos y los no enviados) y un módulo de comunicaciones para poder transferirlos. El mensaje quedaba almacenado en el mail-server hasta que el usuario destinatario, usando su “cliente de correo”, se conectara con él y solicitara los mensaje que le tuviera reservados. El proceso inverso de envío de mensajes era muy parecido: cuando el usuario terminaba de escribir su mensaje, especificando la dirección del destinatario, se conectaba con el servidor a fin de depositar el archivo hasta que el destinatario lo solicitara.

Cuando el servidor está conectado a una, y sólo a una LAN, el problema de la dirección de destino es muy simple, cada dirección debe identificar de forma unívoca a cada usuario. Con una LAN esta restricción es fácil de implementar, pero cuando se trata de varias LANs interconectadas, el asunto ya pasa a ser un problema mayor; así se introducen los dominios, que representan al servidor al que pertenece el usuario y que tienen la forma de una dirección válida, es decir sin espacios en blanco ni caracteres prohibidos. Para diferenciar el nombre del usuario de su dominio se adoptó el caracter "@" que significa "en" (at) entonces la dirección bruno@servidor. a se puede leer como "Bruno en el servidor A"

In f o r m á t i c a Méd i c a I 55

Page 56: Informática Médica I

In f o r m á t i c a Mé d i c a I

Un problema mayor surgió cuando se intentaron, conectar servidores de correo que utilizaban productos comerciales distintos (programas, software), que aunque conceptualmente hacían lo mismo eran totalmente incompatibles. El hecho es que hasta ese momento no existía un estándar que reglamentara cómo debían implementar este servicio los programas comerciales. La necesidad de un estándar se hizo más urgente cuando aparecieron redes totalmente distintas que comenzaron a conectarse entre ellas mediante la INTERNET. Una compañía multinacional que tuviera sedes en distintos países y quisiera intercambiar sus correos, tenía que contratar a un ISP (INTERNET SERVICE PROVIDER) y así tener acceso ilimitado a la INTERNET. Este arreglo podría tener la forma de la figura 4.

SMTP vs X.400

Como solución a este caos de variedades de correos totalmente incompatible, surgieron dos soluciones, dos estándares. Aunque parezca contradictorio, el primer estándar es el que se implementó de facto en la INTERNET y se publicó en 1982 bajo la forma de la RFC 821 y RFC 822, (la primera de ellas define el protocolo y la segunda el formato del mensaje) y se denominó SMTP (Simple Mail Transfer Protocol), el protocolo simple de transferencia de correo, y, como su nombre lo indica, la intención de la gente que hizo el estándar era conservar la simplicidad. Un par de años más tarde, y quizá demasiado tarde, llegó el estándar oficial de la CCITT para el manejo de mensajes en INTERNET y se llamó X.400. Este estándar nunca llegó a imponerse en la INTERNET debido a su complejidad, lo poco flexible de las direcciones y a que llegó muy tarde. El hecho es que el estándar de INTERNET para la transferencia de correo es el SMTP que se usa aún hoy ampliamente en toda la red, con algunas excepciones. Debido a su formato de transferencia, el SMTP no soporta los caracteres extendidos que son imprescindibles en idiomas como el francés y el alemán. En particular los gobiernos de Francia y Canadá impulsaron el X.400 como estándar ya que se adaptaban mucho mejor a sus necesidades, ahora estos dos países son los únicos que soportan estos protocolos y debido a esto se necesitó la creación de pasarelas de conversión de un sistema al otro.

In f o r m á t i c a Méd i c a I 56

Page 57: Informática Médica I

In f o r m á t i c a Mé d i c a I

EL CORREO POP

Estos protocolos funcionan muy bien cuando los destinatarios están permanentemente conectados a la INTERNET, como en la figura 4, pero unos años después de la publicación de los estándares se hizo más común el correo POP para usuarios domésticos que desde su casa se conectaban, mediante un MODEM, esporádicamente a la INTERNET. Estos usuarios tienen un contrato con un ISP que está siempre conectado a la red y, al llegar un correo para un usuario, el mail-server del ISP lo guarda hasta que el usuario se conecte y lo solicite. Esta situación se ilustra en la siguiente imagen.

Este ambiente requirió la especificación de otro estándar, de esta manera apareció en escena el Protocolo de Oficina Postal, POP, que actualmente se encuentra en su versión 3. Este protocolo permite un interfaz simple para la recepción de mensajes y se complementa perfectamente con el SMTP, en la forma en que este último se encarga del envío de correo y su tránsito por la INTERNET hasta el mail-server destino, y el POP se encarga de el transporte de los mensajes almacenados en el servidor a usuarios que esporádicamente se conecta a él. Este arreglo podría se algo parecido al de la figura 6. Nótese que no es necesario que los clientes estén conectados permanentemente, pero en cambio los servidores sí.

EL CORREO WEB

La última versión y la más popular del correo electrónico es el correo web, que se utiliza mediante páginas web especialmente diseñadas para tal propósito. Este correo le permite a sus usuarios poder acceder directamente a su casilla de correo y ver su correspondencia sin tener que descargarlo a la PC desde la que acceden. Así, todo su correo puede permanecer en el ISP siempre. Esto obliga a los ISP a limitar la capacidad de las casillas de correo. Hoy los correos web conceden desde 2 Mb. hasta 250 Mb. Aunque siempre es posible comprar espacio adicional. Los correos web se han hecho muy populares en todo el mundo debido a que son gratuitos y ofrecen una amplia gama de servicios adicionales, tales como mensajería instantánea, chat, listas de interés, grupos, etc. Los más conocidos en nuestro medio son Hotmail, Yahoo, Latinmail, etc. El acceso al servidor de correo desde la Internet impuso la necesidad de crear otro protocolo que sirviera para ese propósito. Así surgió el IMAP o Internet Mail Access Protocol, o protocolo de acceso al correo por Internet. Todo esto quiere decir que los servidores de correo electrónico deben poder manejar los protocolos SMTP, IMAP y POP, para cada una de sus distintas actividades. La siguiente imagen nos da una idea del entorno que sugiere el correo web.

In f o r m á t i c a Méd i c a I 57

Page 58: Informática Médica I

In f o r m á t i c a Mé d i c a I

CORREO WEB VS CORREO POP

Los avances de la tecnología han hecho que las diferencias entre un tipo y otro, en muchos aspectos, queden reducidas a simples sutilezas. Sin embargo es conveniente tener presente que existen diferencias sustanciales entre uno y otro, y que puede resultar interesante tenerlas presentes a la hora de decidirse por uno u otro tipo de servicio. Para llegar a un cabal entendimiento de cómo funcionan cada uno de ellos, haremos una comparación entre ambos, en diversos aspectos.

a) Software necesario

CORREO WEB CORREO POP

Se emplea mediante páginas web. Esto quiere decir que se necesita un explorador web como Internet Explorer, Netscape, Copérnico, Opera, etc.

Se requiere un programa especial en la PC que maneje correo electrónico. Por ejemplo, el Outlook Express que viene con Windows, o cualquier otro similar.

Alcances y disponibilidad

CORREO WEB CORREO POP

Al ser empleado a través de la Internet, el correo web está disponible en cualquier lugar del mundo. Solo basta con abrir una página web y llamar a su servicio de correo: Hotmail, Yahoo, Gmail, etc.

El correo POP está disponible en la PC, pero muchos de estos correos también pueden ser abiertos a través de la Internet como cualquier otro correo web. Además muchos correos web brindan la facilidad de poder acceder a su correo POP si les proporcionan los datos necesarios.

c) Velocidad.

CORREO WEB CORREO POP

La velocidad del correo web es la misma que tiene Internet, o sea, la combinación de la PC, la red y el servidor. Para cada acción que realizamos se necesita abrir una nueva página web completa.

La velocidad del correo POP al momento de interactuar es la misma que tiene la PC. Algunas acciones abren ventanas distintas, pero lo hacen a la velocidad de Windows. Tan solo en el envío y recepción del correo depende de la velocidad de la red.

In f o r m á t i c a Méd i c a I 58

Page 59: Informática Médica I

In f o r m á t i c a Mé d i c a I

b) Almacenamiento.

CORREO WEB CORREO POP

La capacidad depende de lo que permita el ISP. Generalmente oscila entre los 2 Mb y los 250 Mb, aunque la gran mayoría está en el rango de 20 a 25 Mb.

Teóricamente la capacidad es ilimitada. En última instancia depende de la capacidad de nuestro disco duro.

c) Seguridad

CORREO WEB CORREO POP

Dependemos del manejo del ISP. Nuestra contraseña de acceso es la única seguridad con que contamos.

Hay varias formas de abrir el correo web.

Recordemos el caso reciente de una famosa artista cuyo contenido completo de correo web fue publicado en Internet gracias a que ella misma proporcionó, sin darse cuenta, el nombre de su mascota, que era la contraseña de su correo.

Además de la contraseña de nuestra cuenta de correo, también es posible activar la contraseña para el inicio de sesión con el programa de correo, como Outlook Express, por ejemplo. También podemos activar la contraseña de nuestra cuenta de Windows XP. Pero las herramientas más importantes de seguridad son la FIRMA DIGITAL y el ENCRIPTAMIENTO, que son dos funciones disponibles desde la mayoría de programas de gestión de correo electrónico.

d) Versatilidad.

CORREO WEB CORREO POP

No tenemos mayores opciones que las que nos ofrece la página web en la que se gestiona el correo.

- Podemos emplearlo simultáneamente con otros programas de la PC, tales como Word, Excel, etc. y combinar los datos para pasarlos de un lugar a otro.

- Podemos emplear programas adicionales como utilitarios y herramientas para el correo electrónico: revisión ortográfica, filtros antispam, antivirus activo, diseños de correo, libreta de direcciones, mensajería instantánea, editores especiales, etc.

Recomendaciones

Como todas las cosas, el uso del correo electrónico corre el riesgo de ser empleado de una manera inconveniente, tanto para la propia persona como para el sistema en su conjunto. A través de la experiencia, algunas recomendaciones pueden ser útiles para optimizar el uso del correo electrónico.

a) ¿Cuántos correos tener?

Ya que una persona normalmente se maneja en diversas instancias y mantiene vínculos de diversa índole, no es recomendable tener un solo correo para toda esta gama de contactos. Lo más adecuado es contar con por lo menos 3 correos diferentes:

In f o r m á t i c a Méd i c a I 59

Page 60: Informática Médica I

In f o r m á t i c a Mé d i c a I

- Para las comunicaciones personales y familiares- Para las comunicaciones laborales y profesionales- Para suscripciones y registros de Internet

Si se usa un programa de cliente de correo como el Outlook o el Thunderbird, no habrá que estar abriendo tres o cuatro correos para revisarlos, sino que bastará con definir todas las cuentas y el programa se encargará de gestionarlas. Uno solo abre el programa cliente y encuentra TODA su correspondencia en la bandeja de entrada. Dentro del programa cliente se pueden generar a su vez carpetas para almacenar cada clase de correspondencia.

b) ¿Cómo debo llamar a mi correo?

Uno de los problemas más frecuentes es encontrar direcciones de correo impronunciables o con una nomenclatura aberrante y huachafa. En lo posible, el correo debe ser el propio nombre de la persona con alguna sutil abreviatura de sus iniciales separadas por puntos o guiones altos o bajos. Eso es lo ideal. El nombre de nuestro correo debe identificarnos y no ocultarnos detrás de expresiones enredadas o creativas.

c) ¿Qué servidor de correo es el mejor?

A menudo las personas eligen un servidor solo porque es el más conocido y nada más. Pero lo cierto es que hay muchísimos servidores de correo que ofrecen diversas ventajas. Unas cuantas cosas que podríamos considerar a la hora de elegir un servidor son:

- Capacidad de almacenamiento, especialmente cuando se trata de correos web.- Capacidad de transferencia de archivos (más de 5 Mb por envío)- Velocidad de entrega- Posibilidad de manejarlo con un programa cliente- Estabilidad del servidor, la conexión y de las páginas- Confidencialidad, especialmente contra el e-comerce.- Si es correo web:

* Facilidad de manejo y simplicidad de las páginas.* Facilidad para hacer toda clase de mantenimientos* Posibilidad de realizar forwarding* Confidencialidad de las páginas* Seguridades incorporadas como revisión antivirus y antiespam* Servicios adicionales como libreta de contactos y grupos

b) No caer en el juego de las cadenas de correo.

Uno de los peores usos que se le da al correo es el reenvío de cadenas que llegan en toda clase de formatos, especialmente ahora como presentaciones de Power Point. Existen una variedad grande de tipos pero al final acaban siempre solicitando al incauto que reenvíe el correo a todos sus contactos. Los más usuales son de contenido religioso que aseguran una serie de milagros si se sigue la cadena o una serie de maldiciones si no se la sigue. Los hay que invitan a formar cadenas de oración por todo el mundo o simplemente alegrarle la vida a alguien con un mensaje de paz y amor. ¿Se han preguntado porqué alguien se toma tantas molestias para producir estas presentaciones? Generalmente detrás de todas ellas están los recolectores de direcciones de correo que luego venden para llenarnos de publicidad. Nunca reenvíe este tipo de correos. Simplemente elimínelos.

In f o r m á t i c a Méd i c a I 60

Page 61: Informática Médica I

In f o r m á t i c a Mé d i c a I

Conceptos básicos sobre seguridad informática

Desde el momento que nos conectamos a Internet, nuestro equipo se encuentra vulnerable a diversos tipos de ataques, desde virus, hasta intrusiones. Durante las próximas semanas, vamos a realizar un repaso de los peligros que acechan en la Red. En esta primera entrega os ofrecemos una visión general para despejar dudas.

Debido al continuo desarrollo de nuevos virus, y al descubrimiento de fallos de seguridad en los sistemas operativos, actualmente es imposible garantizar al cien por cien la inmunidad de un ordenador. Lo único que podemos hacer es reducir el riesgo lo máximo posible. Además, también habría que recalcar que la mayoría de los ataques son aleatorios, aunque últimamente son más los que buscan una información concreta o la obtención de un servicio gratuito.

Para reducir al mínimo los riesgos, lo primero es conocer a lo que nos enfrentamos, y como funciona. El siguiente paso sería configurar correctamente nuestro ordenador e instalar los programas de seguridad pertinentes.

Los daños en nuestro PC pueden ser muy diferentes dependiendo del virus o del ataque. Algunos sólo muestran un mensaje de vez en cuando, realizan una determinada aplicación, o eliminan datos importantes del disco duro. También hay peligros no visibles a simple vista, que incluyen el envío de información privada, como: los programas instalados, los datos personales del usuario o sus números de tarjetas de crédito.

Otros de los riesgos que no podemos pasar por alto, es el uso de nuestro ordenador, conexión, y dirección IP, para realizar accesos a terceros ordenadores o efectuar operaciones ilegales, Este daño, aunque aparentemente leve, puede llegar a ocasionarnos problemas judiciales.

Los peligros de Internet

Aunque parezca una tontería, nuestro primer error es dar por sentado que al no tener enemigos aparentes, nadie nos va a hacer nada. En la mayoría de los casos, tanto la infección, como la vulnerabilidad de nuestros sistemas, es debida a dejadez o a ciertos actos involuntarios difíciles de controlar, como navegar por una página web infectada.

Dentro de la Red hay muchos peligros que nos acechan, en casi todos los casos, el modo de infección o transmisión se reduce a dos vías: la navegación y el correo electrónico. Ambos caminos son utilizados por "piratas informáticos" (crackers) para cometer sus delitos. Pero, ¿qué tipo de herramientas y aplicaciones de software usan estos delincuentes cibernéticos?

Virus

Es un pequeño programa capaz de reproducirse a sí mismo, infectando cualquier tipo de archivo ejecutable, sin conocimiento del usuario. El virus tiene la misión que le ha encomendado su programador, ésta puede ser desde un simple mensaje, hasta la destrucción total de los datos almacenados en el ordenador.

Lo único que tienen en común todos es que han de pasar desapercibidos el mayor tiempo posible para poder cumplir su trabajo. Una vez infectado un PC, el virus no tiene por que cumplir su misión al momento, algunos esperan una fecha, evento o acción del sistema para llevar a fin su objetivo.

In f o r m á t i c a Méd i c a I 61

Page 62: Informática Médica I

In f o r m á t i c a Mé d i c a I

Se llaman de esta forma, por su analogía con los virus biológicos del ser humano. Al igual que estos, los informáticos tienen un ciclo de vida, que va desde que "nacen", hasta que "mueren". Creación, gestación, reproducción, activación, descubrimiento, asimilación, y eliminación. Además, existen varias técnicas que permiten a un virus ocultarse en el sistema y no ser detectado por el antivirus: ocultación, protección antivirus, camuflaje y evasión.

Hackers y crackers

La palabra hacker, en un principio, se refería al experto en programación cuya meta era compartir sus conocimientos y experiencias con otros hackers. Actualmente, aplicamos este distintivo a todos aquellos que realizan piratería informática y delitos en Internet, cuando en realidad deberíamos decir crackers. La finalidad de estos últimos, es causar el mayor daño posible y robar información para uso propio en ordenadores personales o redes empresariales.

El término cracker fue creado en 1985 por los propios hackers, para defenderse de la utilización incorrecta del calificativo que les distinguía del resto de profesionales informáticos.

Gusanos

Gusano o Worm es un código maligno cuya única finalidad es la de ir consumiendo la memoria del sistema, mediante la realización de copias sucesivas de sí mismo, hasta desbordar la RAM, siendo ésta su única acción peligrosa. Su principal misión es reenviarse a sí mismo. Son códigos víricos que, en principio, no afectan a la información de los sitios que contagian, aunque consumen amplios recursos de los sistemas, y los usan para infectar a otros equipos.

A diferencia de la mayoría de virus, los gusanos se propagan por sí mismos, sin modificar u ocultarse bajo otros programas. No destruyen información de forma directa, pero algunos pueden contener dentro de sí, propiedades características de los virus.

El mayor efecto de los gusanos es su capacidad para saturar, e incluso bloquear por exceso de tráfico los sitios web, aunque estos se encuentren protegidos por un antivirus actualizado.

Actualmente, han evolucionado, y también tienen la capacidad de saturar, e incluso bloquear por exceso de tráfico los sitios web, produciendo lo que se conoce como ataque de denegación de servicio (DoS).

Melissa tuvo el dudoso honor de ser el primero de su especie, al menos con distribución masiva, aunque algunos lo consideran un macro virus. Esta especie de gusano, que fue el precursor de una nueva era de infecciones, estaba diseñado para ser enviado a los 50 primeros destinatarios de la lista de contactos de Microsoft Outlook.

Troyanos

Es un programa potencialmente peligroso que se oculta dentro de otro para evitar ser detectado, e instalarse de forma permanente en nuestro sistema.

Este tipo de software no suele realizar acciones destructivas por sí mismo, pero entre muchas otras funciones, tienen la capacidad de capturar datos, generalmente contraseñas e información privada, enviándolos a otro sitio.

In f o r m á t i c a Méd i c a I 62

Page 63: Informática Médica I

In f o r m á t i c a Mé d i c a I

Otra de sus funciones es dejar indefenso nuestro sistema, abriendo brechas en la seguridad, de esta forma se puede tomar el control total de forma remota, como si realmente se estuviera trabajando delante de nuestra pantalla.

Hoax y Joke

Un hoax no es un virus, sino mensajes de correo electrónico engañosos, que se difunden masivamente por Internet sembrando la alarma sobre supuestas infecciones víricas y amenazas contra los usuarios. Además, tratan de ganarse su confianza aportando datos que parecen ciertos y proponiendo una serie de acciones a realizar para librarse de la supuesta infección.

Si se recibe un hoax, no hay que hacer caso de sus advertencias e instrucciones, lo más aconsejable es borrarlo sin prestarle la más mínima atención y no reenviarlo a otras personas.

Por otro lado, un joke tampoco es un virus. Simplemente es un programa inofensivo que simula las acciones de un virus informático en nuestro ordenador. Su objetivo no es atacar, sino gastar una broma a los usuarios, haciéndoles creer que están infectados y que se están poniendo de manifiesto sus efectos. Aunque su actividad llega a ser molesta, no producen realmente efectos dañinos.

Bombas lógicas

Tampoco se consideran estrictamente virus, ya que no se reproducen. Ni siquiera son programas independientes, sino un segmento camuflado dentro de otro programa. Tienen por objetivo destruir los datos de un ordenador o causar otros daños de consideración en él cuando se cumplen ciertas condiciones. Mientras este hecho no ocurre, nadie se percata de la presencia de la bomba lógica. Su acción puede llegar a ser tremendamente destructiva.

Macro virus

El objetivo de estos virus es la infección de los ficheros creados usando determinadas aplicaciones que contengan macros: documentos de Word (ficheros con extensión DOC), hojas de cálculo de Excel (ficheros con extensión XLS), bases de datos de Access (ficheros con extensión MDB), presentaciones de PowerPoint (ficheros con extensión PPS), ficheros de Corel Draw, etc.

Las macros son microprogramas asociados a un fichero, que sirven para automatizar complejos conjuntos de operaciones. Al ser programas, las macros pueden ser infectadas.

Cuando se abre un fichero que contenga un virus de este tipo, las macros se cargarán de forma automática, produciéndose la infección. La mayoría de las aplicaciones que utilizan macros cuentan con una protección antivirus y de seguridad específica, pero muchos macro virus las sortean fácilmente. Sin embargo, no todos los programas o herramientas con macros pueden ser afectadas por estas infecciones.

Los peligros que esconde el correo electrónico

Después del pequeño repaso a los tipos de programas y códigos que pueden infectar nuestro PC, habría que hablar del resto de "quebraderos de cabeza" que puede transportar un correo electrónico, como el spam o el spyware.

In f o r m á t i c a Méd i c a I 63

Page 64: Informática Médica I

In f o r m á t i c a Mé d i c a I

Spam

Es el correo electrónico no solicitado o no deseado, que se envía a múltiples usuarios con el propósito de hacer promociones comerciales o proponer ideas. Generalmente, suelen ser: publicidad, ofertas o enlaces directos una página web. Estos mensajes son enviados a cientos de miles de destinatarios cada vez.

El correo basura es molesto y roba recursos del sistema. Su distribución causa la perdida de ancho de banda en la Red, y multiplica el riesgo de infección por virus.

Las personas o empresas que envían este tipo de emails, construyen sus listas usando varias fuentes. Normalmente, utilizan programas que recogen direcciones de correo desde Usenet, o recopilan las mismas de otras listas de distribución.

Muchos de los mensajes no solicitados nos ofrecen la opción de eliminarnos. La experiencia demuestra que este método es una trampa, y que sólo sirve para verificar que la dirección de correo existe realmente, y se encuentra activa. Por otro lado, si respondemos alguno de estos emails, el resultado es idéntico, seremos colocados automáticamente en una nueva lista de distribución, confirmando nuestra dirección.

Spyware

Los programas espía se instala en un ordenador sin el conocimiento del usuario, para recopilar información del mismo o de su ordenador, enviándola posteriormente al que controla dicha aplicación.

Existen dos categorías de spyware: software de vigilancia y software publicitario. El primero se encarga de monitorizar todo el sistema mediante el uso de transcriptores de teclado, captura de pantallas y troyanos. Mientras, el segundo, también llamado “Adware”, se instala de forma conjunta con otra aplicación o mediante controles ActiveX, para recoger información privada y mostrar anuncios.

Este tipo de programas registran información sobre el usuario, incluyendo, contraseñas, direcciones de correo, historial de navegación por Internet, hábitos de compra, configuración de hardware y software, nombre, edad, sexo y otros datos secretos.

Al igual que el correo basura, el software publicitario, usa los recursos de nuestro sistema, haciendo que sea este el que pague el coste asociado de su funcionamiento. Además, utiliza el ancho de banda, tanto para enviar la información recopilada, como para descargar los banners publicitarios que nos mostrará.

Los mayores responsables de la difusión de spyware son los populares programas de intercambio de archivos (P2P) disponibles en la actualidad, tipo Kazaa, eDonkey o eMule.

Referencia: Para mayor información y seguir un curso completo sobre distintos campos de la web ingresar a la página: www.aulaclic.com

In f o r m á t i c a Méd i c a I 64

Page 65: Informática Médica I

In f o r m á t i c a Mé d i c a I

Correo basura y spyware: amenaza para navegantes

Cuando nos metemos en Internet, podemos encontrarnos con ventanas que nos sugieren que instalemos ciertos programas, o nos ofrecen premios y regalos. Si aceptamos, nos exponemos a que se instalen en nuestro equipo aplicaciones de tipo spyware, adware o dialers.

Otro factor de riesgo potencial y susceptible de ser atacado, es nuestra cuenta de correo. Por desgracia, el spam (correo basura) se encuentra a la orden del día en todo el mundo. En sí, este tipo de mail no es un

problema grave, el peligro radica en que asociado a él se distribuyen la mayoría de los virus.

Por ello, la mejor forma de evitar estas situaciones es una correcta navegación y uso de Internet, así como de todas las posibilidades y servicios que nos brinda.

Consejos para un buen uso del correo electrónico

Actualmente, el correo electrónico es uno de los principales medios de comunicación. Pero como todo, también tiene sus inconvenientes. Uno de sus principales, es el engorroso spam. Un tipo de email que, además de llevar publicidad u ofertas, también puede adjuntar virus.

Estos códigos maliciosos utilizan el correo para camuflarse, la mayoría de las veces en envíos que llevan el nombre de algún integrante de nuestra libreta de direcciones o mediante un mensaje atractivo que invita a que abramos un archivo adjunto.

En los clientes de correo, como Outlook, que poseen la función de una vista previa de los mails, es recomendable desactivar esta función. Otra de las soluciones para evitar al máximo la intrusión de virus, es usar programas con los que podamos consultar el correo directamente en el servidor, sin necesidad de descargarnos el mensaje a nuestro ordenador.

Trucos contra el correo basura

Llamamos spam o correo basura a los mensajes no deseados que hacen referencia a ofertas, publicidad y páginas web de diversos temas.

Por lo general, este tipo de correo trae un enlace o las instrucciones para borrarte de su lista de distribución. En empresas serias, este método suele ser efectivo para quitarse de las mismas, no sucede lo mismo con las sociedades o particulares que buscan tener acceso a datos confidenciales del usuario.

Una de las formas de limitar al máximo el spam es hacer uso de las capacidades de los clientes de correo, con los que podemos filtrar estos mensajes por una gran cantidad de criterios. Actualmente también existen programas que nos ayudaran a realizar esta labor de filtrado.

Otro de los sistemas antispam es utilizar dos cuentas de correo, una, para las comunicaciones menos confidenciales, y la otra, la buena, exclusivamente para uso laboral o privado. Eso sí, aunque apliquemos estos trucos, no es seguro al 100% quedar libre del correo basura.

In f o r m á t i c a Méd i c a I 65

Page 66: Informática Médica I

In f o r m á t i c a Mé d i c a I

Cómo evitar la instalación de software espía

Estos programas (spyware, adware, etc.) son usados para recopilar información privada y confidencial de los usuarios que navegan por Internet. Lo normal, es que su instalación pase desapercibida. Se distribuyen por correo electrónico, en forma de archivo adjunto, o desde una página Web.

El adware está dirigido a la recopilación de datos estadísticos, con la finalidad de mostrarnos la publicidad que se ajusta más a nuestro perfil.

Para evitar en lo posible la instalación en nuestro PC de este tipo de software, debemos de vigilar y leernos con detalle todas las ventanas que se muestran durante la instalación de cualquier aplicación, incluyendo la licencia o el Contrato del Usuario Final.

En el caso de los archivos adjuntos enviados por correo, siempre se ha de comprobar su extensión final, para asegurarnos que no se trata de un ejecutable, ya sea un EXE, BAT, VB, etc.

Periódicamente, es aconsejable escanear el ordenador en busca de estas aplicaciones, tanto con un antivirus, como con un antispyware del tipo Spybot, por ejemplo.

Pautas para una navegación más segura

Ninguno de nosotros estamos exentos de sufrir cualquiera de las amenazas que esconde la Red. Por hacer una analogía, es como un catarro o una gripe, por muchas vitaminas y vacunas que tomemos, todos podemos cogerlo, aunque los riesgos son menores en aquellos que toman precauciones. Partiendo de esta base, lo único que podemos hacer es dar unos consejos prácticos para la navegación en Internet.

Lo primero que debemos tener siempre instalado, correctamente configurado y actualizado a la última versión son: un antivirus, un firewall y un antispyware. De esta forma, evitaremos posibles daños en nuestro sistema, que puedan ser causados por programas o archivos fuera de nuestro control.

Ventanas emergentes o pop-ups

Los pop-ups son ventanas emergentes con contenido publicitario que se manifiestan al entrar en algunas páginas de Internet. En la mayoría de los casos no son peligrosos, sin embargo puede suceder que alguno nos pida la instalación de un programa determinado, momento clave para que cualquier empresa o particular introduzca un software espía en nuestro ordenador.

Para evitar estos molestos programas, ante cualquier ventana flotante que se nos muestre, lo primero que debemos hacer es leer el contenido de la misma. Si surge alguna, lo mejor es cerrarla.

Algunas veces, podemos encontrarnos que aunque cerremos el pop-up, éste sigue abriéndose indefinidamente, invitándonos a aceptar su contenido. En estos casos, lo que debemos hacer es cerrar la página sobre la que emerge esta ventana. Si esto tampoco funciona, disponemos de la opción “Eliminar la tarea” desde el “Administrador de Tareas” del sistema operativo.

In f o r m á t i c a Méd i c a I 66

Page 67: Informática Médica I

In f o r m á t i c a Mé d i c a I

Registrarse en páginas web

Otro de los errores más comunes es registrarse en páginas de dudosa procedencia. Actualmente, con la proliferación de webs y portales personales, es prácticamente imposible saber si el responsable del lugar en el que nos registramos utilizará nuestros datos de forma fraudulenta.

En algunos casos, esta información es usada para crear listas globales de correo, que pueden ser usadas posteriormente por otras personas o empresas para hacer spam. Debido a ello, la única medida que podemos tomar, es manejar dos cuentas de correo, una para el registro y la otra para el uso privado.

Hay muchos métodos para conseguir los datos personales de registro. Quizás, el más generalizado sea el que se apoya en programas que capturan todo este tipo de información, los llamados sniffers. Este software se pone en medio de las comunicaciones entre el cliente y el servidor, recogiendo una copia de los datos proporcionados, y reenviándola a una tercera persona o empresa.

Para evitar a los sniffers, la única solución sería registrarse únicamente en páginas seguras, donde las comunicaciones entre usuario y servidor son cifradas.

Tarjetas de crédito

Existen muchas páginas en Internet que requieren para el disfrute de sus contenidos el pago de una cuota mensual o la verificación de la mayoría de edad del usuario. En algunas de ellas, el sistema de introducción de datos se realiza sin usar mecanismos de pago seguros. Muchos crackers (piratas informáticos) monitorizan estas webs con sniffers para conseguir dicha información.

El único sistema eficaz para eludir estas aplicaciones de espionaje es realizar todo tipo de transacciones desde sitios seguros, o usando cualquier otro método de pago.

In f o r m á t i c a Méd i c a I 67