Servidores W2008 Unidad 1

189
Administración básica de los servicios y la red en Windows Server 2008 UNIVERSIDAD TECNOLÓGICA NACIONAL Facultad Regional Córdoba   Área Tecnológica de Educación Virtual Coordinador General de Educación Virtual: Magíster Leandro D. Torres Administración de Servidores con WINDOWS Server 2008 EV 3170 00 . .  

Transcript of Servidores W2008 Unidad 1

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 1/189

Coordinador General de Educación Virtual: Magíster Leandro D. Torres



http://slidepdf.com/reader/full/servidores-w2008-unidad-1 2/189

Unidad 1
Administración básica de los servicios y la red en Windows Server 2008
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 3/189

• 
Reconocer la estructura y administración de procesos • 
Reconocer las características del sistema de archivos • 
Comprender los principios básicos de gestión de la memoria •  
Comprender la organización de redes de computadoras • 
Entender las características básicas de una red TCP/IP • 
Configurar el protocolo TCP/IP •  
• 
Instalar y configurar un servicio de WINS
En esta unidad veremos los principios básicos de la gestión del Sistema Operativo Windows Server 2008 y su rol relativo a la gestión de servicios, que permiten virtualizar el hardware de la computadora y conectarse con otras computadoras en una red TCP/IP.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 4/189

1.0 Introducción a los sistemas operativos y Windows Server 2008
1.1 Estructura de una red TCP/IP
1.1.1 Protocolo TCP/IP
1.1.2 Direccionamiento IP
1.2.2 Configuración avanzada
1.3.1 Instalar y configurar servidores DNS en Windows Server 2008
1.3.2 Trabajar con el servicio DNS en Windows Server 2008
1.3.3 Prácticas recomendadas
1.4.2 Trabajar con el servicio WINS en Windows Server 2008
1.4.3 Prácticas recomendadas
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 5/189

Instalación de Windows Server 2008 en Virtual PC
Veremos detalles de instalación y configuración de Virtual PC y la instalación de Windows server 2008
Introducción
Esta es la versión compatible con Windows XP y Windows Vista.
http://www.microsoft.com/downloads/es-es/details.aspx?FamilyID=04d26402-3199-48a3- afa2-2dc0b40a73b6 
Para Windows 7 tenemos simplemente Virtual PC. Windows Virtual PC es lo último en tecnología de virtualización de Microsoft. Esta tecnología se puede usar para ejecutar más de un sistema operativo a la vez en un equipo, así como muchas aplicaciones de productividad en un entorno virtual de Windows, con un solo clic y directamente desde un equipo en el que se ejecute Windows 7. 
La página para la descarga es la siguiente:
http://www.microsoft.com/downloads/es-es/details.aspx?FamilyID=2B6D5C18-1441-47EA- 8309-2545B08E11DD#Overview 
La instalación es muy sencilla, simplemente deberás aceptar las opciones por defecto y listo!!!!
En esta primer parte te explico cómo configurar el Virtual PC, cómo crear un nuevo equipo virtual y cómo añadir a la consola un equipo existente.
Nota:  En estas capturas estoy usando un portátil con Windows Vista Ultimate y el Virtual PC 2007. En las capturas en las que la barra del título no se ve transparente es porque las he capturado usando una conexión por escritorio remoto.
Configurar el Virtual PC
Cuando abres por primera vez el Virtual PC (en adelante VPC), lo primero que te encuentras es un asistente para crear una máquina virtual (o añadir una existente).
El idioma mostrado puede ser inglés, pero aunque te hayas bajado la versión en inglés, también lo puedes usar en español, y eso es lo primero que te voy a explicar.
En el menú File, elige la opción Options, te mostrará un cuadro de diálogo como el de la figura 1, en la parte izquierda, abajo del todo, tienes la opción de idioma (Language), en la
 parte de la derecha una lista desplegable con los idiomas disponibles.
Una vez que hayas seleccionado el idioma español (Spanish), pulsa en OK (Aceptar) y cierra el Virtual PC y vuelve a abrirlo para que los cambios se hagan efectivos.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 6/189

Figura 1. Configurar el idioma
En esa misma pantalla de opciones puedes cambiar la tecla predeterminada para "salir" de una máquina virtual (porque cuando entras en una máquina virtual, se "captura" el teclado y el ratón y no puedes usarlo fuera, salvo que hagas otra cosa, que después te explico), por tanto,
 puedes configurar que tecla se usará, que por defecto es ALT DERECHA, pero si quieres usar otra, por ejemplo la tecla APLICACION (que es la que sueles usar para mostrar los menús
contextuales y que es la que está al lado de ALT GR), puedes hacerlo seleccionado la opción Keyboard y en el panel de la derecha, dentro de la caja de textos que hay bajo Current host key, pulsa la que quieras usar (ver la figura 2).
Mi recomendación es que no indiques una tecla que uses a menudo, ya que será un rollo no  poder usarla de forma normal, yo he puesto la de APLICACIÓN, que es la que se usa para mostrar los menús contextuales, porque esa operación la puedo hacer (y de hecho casi siempre lo hago) con el botón secundario del ratón (para los diestros, el botón derecho).
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 7/189

Crear un nuevo equipo
Una vez que hemos configurado el idioma y la tecla "especial", le toca el turno de crear un nuevo equipo.
En las siguientes capturas y opciones que te comente, estoy usando el idioma español, asíque... si estás usando otro, pues ya sabes cómo cambiarlo.
Este asistente te lo mostrará tanto si eliges Nuevo en el botón de la "consola de Virtual PC" como si eliges la opción Asistente para nuevo equipo virtual del menú Archivo.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 8/189

Figura 3. Asistente crear nuevo equipo (paso 1 de 8)
Figura 4. Asistente crear nuevo equipo (paso 2 de 8)
Después de la pantalla inicial (figura 3), nos preguntará que queremos hacer, si crear un nuevo equipo o usar uno ya existente (figura 4). (La otra opción, la que está en medio, no la he usado nunca y no creo que la use, si quieres probarla por tu cuenta, pues...)
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 9/189

Figura 5. Asistente crear nuevo equipo (paso 3 de 8)
Lo siguiente que hará será preguntar el nombre del equipo, de forma predeterminada el nombre usado es "Nuevo equipo virtual" (tal como puedes ver en la figura 5) y te da la opción
 para que indiques dónde quieres guardar este nuevo equipo, si quieres guardarlo en otro sitio que el predeterminado, pulsa en el botón Examinar y elige la ubicación. (Yo suelo crear un directorio con el mismo nombre de la máquina virtual, tal como ves en la figura 6.)
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 10/189

Figura 6. Asistente crear nuevo equipo (paso 3.2 de 8)
Después te pedirá que sistema operativo vas a instalar (figura 7), de la lista desplegable que hay bajo Sistema operativo, elige el que quieras. Fíjate que no hay ninguno de Linux, si es eso lo que quieres instalar (el SuSe 10 se instala bien), en ese caso, elige Otro.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 11/189

Figura 7. Asistente crear nuevo equipo (paso 4 de 8)
Pero el asistente de Virtual PC 2007 es "mu listo", de forma que si en el nombre del equipo le indicas uno de los soportados, automáticamente elegirá ese sistema operativo, tal como
 puedes ver en la figura 8.
Figura 8. Asistente crear nuevo equipo (paso 3 de 8 bis)
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 12/189

Figura 9. Asistente crear nuevo equipo (paso 4 de 8)
Además, al pulsar en Siguiente en el paso 3 (después de haber elegido el sitio en el que lo guardarás), si has puesto un nombre "conocido", ya te lo mostrará seleccionado en la lista, tal como puedes apreciar en la figura 9.
Y como puedes ver en la figura 9, al elegir el sistema operativo, te mostrará la memoria "recomendada" para ese S.O.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 13/189

Figura 10. Asistente crear nuevo equipo (paso 5 de 8)
Si no quieres usar la memoria recomendada, puedes pulsar en Ajustar RAM e indicar la que quieres usar. Es importante que elijas bien la cantidad de memoria a usar por la máquina virtual, ya que esa memoria la obtendrá de la que tengas instalada en tu equipo, por tanto, si indicas mucha memoria, es posible que no te quede la memoria suficiente para abrir más de una máquina virtual.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 14/189

Figura 11. Asistente crear nuevo equipo (paso 5.2 de 8)
Si eliges la opción para ajustar la RAM, te mostrará la opción para indicar cuanta memoria quieres asignarle, (figura 11), fíjate que el máximo es algo menos de la memoria que tengas instalada, en esa captura muestra la que me da en mi portátil con 2 GB de RAM.
En cualquier caso, después puedes cambiar la cantidad de memoria (indicando incluso menos de la recomendada).
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 15/189

Figura 12. Asistente crear nuevo equipo (paso 6 de 8)
Lo siguiente es indicar el disco duro a usar, que puede ser uno existente o uno nuevo, en este caso, indicamos que sea uno nuevo (ver la figura 12).
Figura 13. Asistente crear nuevo equipo (paso 7 de 8)
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 16/189

Puedes usar el valor que te indica por defecto (figura 13), ya que el tamaño de los discos suele ser "dinámico", es decir, no se usa ese tamaño al crearlo, sino que v creciendo de forma dinámica, pero lo que si debes saber es que ese tamaño será el máximo que puedas usar para esta máquina virtual. Aunque la verdad es que usar esos 65 GB sería una "burrada" y te aseguro que no llegarás a usarlo nunca... yo lo más que he llegado a usar (sin optimizar el espacio del disco) es unos 20 GB, que ya es mucho... pero el Windows Vista es un
consumidor de recursos, incluso en las máquinas virtuales...
Figura 14. Asistente crear nuevo equipo (paso 8 de 8)
Y así llegamos al final del asistente de creación de una nueva máquina virtual.
Una vez que pulses en Finalizar, se mostrará esa nueva máquina virtual en la "Consola de Virtual PC", tal como puedes ver en la figura 15. En esa "consola" estarán las máquinas virtuales que hayas creado.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 17/189

Añadir un equipo existente
Si ya tienes algún equipo virtual existente, creado con el Virtual PC 2004 (la versión anterior) o el Virtual Server 2005, puedes usar esas máquinas virtuales. Para ello, inicia el asistente de nuevo equipo virtual y cuando te muestre las opciones del paso 2 (figura 4), tendrás que indicar que quieres usar un equipo existente, tal como ves en la figura 16.
Figura 16. Agregar un equipo existente
Después selecciona el archivo .vmc del equipo que quieres usar (figura 17).
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 18/189

Figura 17. Indicar el archivo de configuración a usar
Y habrás llegado al final, una vez en la última pantalla, se te da la opción de abrir el archivo de configuración tal como puedes ver en la figura 18.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 19/189

Figura 18. Al añadir un equipo existente, podemos ir directamente a la ventana de configuración
Si no quieres que se abra esa pantalla de configuración, tendrás que quitar la selección de la opción Abrir configuración al hacer clic en Finalizar.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 20/189

Instalación de Windows Server 2008 
Realizamos los pasos ya indicados. Mostramos las pantallas específicas de este sistema operativo.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 21/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 22/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 23/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 24/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 25/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 26/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 27/189

http://slidepdf.com/reader/full/servidores-w2008-unidad-1 28/189

!!!.

.
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 29/189

1.0 Introducción a los sistemas operativos y Windows Server 2008 Veremos a continuación algunas definiciones de Sistema Operativo que nos permitirá poner
en claro el enfoque y el ámbito de nuestras conclusiones.
El sistema operativo es el administrador de los recursos del sistema. Significa que el Sistema Operativo se encargará de la administración de los recursos, en especial el hardware, para que las aplicaciones puedan ejecutarse con independencia de este. Por lo tanto no es necesario
adaptar la aplicación para ejecutarla en computadoras diferentes.
El sistema operativo es un software que presta servicios. Significa que dicho software no tiene un objetivo en sí mismo, sino que trabajará para ayudar a las aplicaciones, relevándolas de la
 pesada carga de controlar el hardware.
El sistema operativo convierte una máquina real en una máquina virtual. Completa la definición anterior. Virtualiza al acceso al hardware para hacer el trabajo más fácil a las aplicaciones, sin que estas necesiten conocer los detalles particulares de cada hardware.
La diferencia fundamental entre el sistema operativo y cualquier otra aplicación se debe al nivel de privilegio que el procesador reconoce al sistema operativo (máximo privilegio) mientras que a las aplicaciones le reconoce un mínimo privilegio. Los procesadores reconocen cuatro niveles de privilegio (0, 1, 2, y 3) siendo 0 el de máximo y 3 el de mínimo privilegio. El sistema operativo arranca con privilegio 0 y le asigna a las aplicaciones el privilegio 3.
También ayuda conocer el tamaño del sistema operativo al cual hacemos referencia y al que
también se conoce como KRNEL. Este kernel es el que tiene privilegio 0 y al cual genéricamente llamamos Sistema Operativo. El kernel varía con el sistema operativo, pero
 podemos decir que aproximadamente tiene un tamaño entre 1 y 5 Mbytes. Es el programa que se ejecuta con máximo nivel de privilegio. Sin embargo cuando instalamos un sistema
operativo nos basamos en un DVD de unos 4 GByte, pero que debemos reconocer que se trata del kernel más una gran cantidad software adicional consistente en herramientas, librerías y utilitarios diversos que facilitan la virtualización y la interactividad del usuario. Se entiende
 por usuario a la persona que interactúa con la computadora, como así también a los programas o aplicaciones que usan los servicios y recursos de la misma.
• 
Administración de procesos. Se entiende como proceso al recurso administrado por el S.O. que facilita la ejecución de programas en forma simultánea, dando lugar a lo que conocemos como multi-tarea o multiprogramación
•  Administración de la memoria. La memoria es un recurso muy crítico ya que es allí
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 30/189

•  
•  
• 
Administración de la conectividad. Se refiere a la conexión de computadoras en una red. El S.O. adopta un juego de protocolos para poder comunicarse con otras computadoras y prolongar a través de estas su poder de procesamiento y acceso a datos.
Procesos
La primera aproximación a la idea de lo que es un proceso se la podría asociar al concepto de programa. Sin embargo un programa es un archivo ejecutable que reside en el disco y un  proceso es una unidad de pertenencia de recursos y ejecución, que reside en la memoria y que temporariamente se podría almacenar en el disco cuando hay necesidad de disponer un espacio en la memoria que necesitan los procesos que inmediatamente deberán ejecutarse.
En realidad un proceso ejecuta el código de un programa, y puede haber varios procesos que ejecuten un mismo código.
Por ahora diremos, que un proceso tiene básicamente una estructura y un código a ejecutar, que define la tarea que realiza dicho proceso. Por esa razón, también podemos llamar tarea a
un proceso. Primeramente conoceremos, las situaciones o estados o situaciones en que puede encontrarse un proceso, como así también las transiciones entre dichos estados. La comprensión de este tema es fundamental para entender el comportamiento del sistema operativo en el momento de manejar los procesos.
Luego veremos otro aspecto fundamental, relacionado con la creación de los procesos y su estructura jerárquica padre-hijo, que es la base fundamental de la administración de los
 procesos.
Todo proceso proviene de otro, denominado proceso padre. Solamente existe un proceso que
no tiene padre, que se usa como proceso raíz del árbol de procesos y es el primero que se crea al inicializarse el sistema operativo.
Otro tema importante , que define la performance del sistema, se refiere a la planificación de los procesos , que entre otras cosas define la forma en que los procesos comparten al
 procesador, y que determinara la velocidad de ejecución de cada proceso en particular y de todo el sistema en general .
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 31/189

Estados y transiciones
El sistema operativo reconoce la situación de un proceso en un momento determinado como un “estado” del mismo que se caracteriza por tener un comportamiento administrativo común con otros procesos en la misma situación.
El modelo más sencillo que puede construirse tiene en cuenta que, en un momento dado, un  proceso puede estar ejecutándose en el procesador o no. Así pues, un proceso puede estar en uno de dos estados: Ejecución o No Ejecución.
Cuando el sistema operativo crea un nuevo proceso, éste entra en el sistema en estado de No Ejecución. De este modo, el proceso existe, es conocido por el sistema operativo y está esperando la oportunidad de ejecutarse. De cuando en cuando, el proceso que está ejecutando será interrumpido y el programa distribuidor del sistema operativo seleccionará un nuevo
 proceso para que se ejecute. El proceso anterior pasa del estado de Ejecución al estado de No Ejecución y uno de los demás procesos pasará al estado de Ejecución.
Incluso en este modelo tan simple ya se comienzan a apreciar algunos de los elementos de diseño del sistema operativo. Cada proceso debe representarse de forma que el sistema operativo pueda seguirle la pista. Esto es, debe haber información relativa a cada proceso, incluyendo su estado actual y su posición en memoria. Aquellos procesos que no están ejecutándose tienen que guardarse en algún tipo de cola, para que esperen su tumo de ejecución.
A este diagrama lo llamamos “Diagrama de estados y transiciones de los procesos” que en este caso simplemente consta de dos estados por su simplicidad.
Si todos los procesos estuvieran siempre listos para ejecutar, entonces la disciplina de cola
 propuesta en la figura seria eficaz. La cola podría ser una lista “primero en entrar, primero en salir” (FIFO, First-in, First-Out) y el procesador operaría según un turno rotatorio (round- robin) con todos los procesos disponibles (a cada proceso de la cola se le otorga una cierta cantidad de tiempo para ejecutar y luego vuelve a la cola, a menos que se bloquee).
Sin embargo, aún en el simple ejemplo que se ha descrito, esta implementación no es adecuada. Algunos procesos en el estado de No Ejecución están listos para ejecutar, mientras que otros están bloqueados, esperando a que termine una operación de E/S. Así pues, utilizando una cola sencilla, el distribuidor podría no seleccionar exactamente el proceso que está en el extremo más antiguo de la cola. Más bien, el distribuidor tendría que recorrer la lista
 buscando el proceso que no este no bloqueado" y que lleve más tiempo en la cola.
Una forma más natural de afrontar esta situación es dividir el estado de No Ejecución en dos estados: Listo y Bloqueado. Esto se muestra en la siguiente figura.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 32/189

Los cinco estados de este nuevo diagrama son los siguientes:
•  Ejecución: El proceso que está actualmente en ejecución. En esta unidad se suponen computadores con un único procesador, de forma que solo un proceso, a lo sumo,
 puede estar en este estado en un instante dado. • 
• 
• 
•  
Terminado: Un proceso que ha sido excluido (permanentemente) por el sistema operativo del grupo de procesos ejecutables, bien porque se detuvo o porque fue
abandonado por alguna razón.
Cambios de estado (transiciones)
• 
• 
Nuevo  Listo: El sistema operativo pasará un proceso del estado Nuevo al estado
• 
Listo  Ejecución: Cuando es hora de seleccionar un nuevo proceso para ejecutar, el sistema operativo elige a uno de los procesos del estado Listo. La cuestión de qué
 proceso se escoge es definida por el “planificador a corto plazo”. •  
Ejecución   Terminado: El proceso que se está ejecutando es finalizado por el
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 33/189

• 
Ejecución  Listo: La razón más común de esta transición es que el proceso que está en ejecución ha alcanzado el tiempo máximo permitido de ejecución interrumpida; casi todos los sistemas operativos con multiprogramación imponen este tipo de norma de tiempo. Esto se conoce como planificación “expropiativa”. En algunos sistemas
operativos se puede desalojar a un proceso de su ejecución si pasa al estado de “listo”un proceso de mayor prioridad aunque no haya concluido el quantum del proceso en ejecución. Esto se conoce como planificación “expulsiva”
•  Ejecución  Bloqueado: Un proceso se pone en el estado Bloqueado si solicita algo  por lo que debe esperar. Las solicitudes al sistema operativo suelen ser en forma de llamadas al sistema operativo, es decir, llamadas desde el programa que está ejecutándose a un procedimiento que forma parte del código del sistema operativo. Por ejemplo, un proceso puede solicitar un servicio que el sistema operativo no está
 preparado para llevar a cabo de inmediato. Puede pedir un recurso, tal y como un archivo o una sección compartida de memoria virtual, que no esté inmediatamente disponible. O bien el proceso puede iniciar una acción, como una operación de E/S, que debe terminarse antes de que el proceso pueda continuar (E/S síncrona). Al
comunicarse los procesos unos con otros, uno se puede quedar bloqueado cuando espera a que otro proceso le proporcione una cierta entrada o cuando espera un mensaje del otro proceso.
•  Bloqueado   Listo: Un proceso que está en el estado Bloqueado pasará al estado Listo cuando se produzca el evento que estaba esperando.
Los tres estados principales que se han descrito (Listo, Ejecución, Bloqueado) ofrecen una forma sistemática de modelar el comportamiento de los procesos y de guiar la implementación del sistema operativo. 
Planificación de procesos En un sistema multiprogramado, múltiples procesos son mantenidos en memoria principal.
 Multiprogramación surgió con la idea de tener algún proceso ejecutándose en todo momento con la finalidad de maximizar el uso del microprocesador. Tiempo Compartido fue concebido con la idea de conmutar o cambiar continuamente el microprocesador entre procesos de forma tal que los usuarios puedan interactuar con programas mientras están corriendo otros.
Cuando un proceso entra al sistema es colocado en una cola de trabajos. Una vez que el  proceso se encuentra en memoria principal y está listo para ejecutar, este es colocado en la cola de procesos listos (ready). Cuando al proceso se le asigna el microprocesador, ejecuta
 por un tiempo y eventualmente el proceso terminará, o será interrumpido o esperará por la ocurrencia de algún evento. Con frecuencia nos encontraremos con situaciones en las que dos o más procesos son ejecutables desde el punto de vista lógico. En estos casos el sistema de operación debe decidir cuál de ellos debe ejecutarse primero. La parte del sistema operativo que lleva a cabo esta decisión se llama  Planificador  y el algoritmo que se utiliza se conoce como Algoritmo de Planificación.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 34/189

Objetivos de la planificación
Con la planificación de procesos se busca cumplir con los siguientes objetivos:
• 
•  
• 
• 
El Planificador
Los procesos se mueven entre varias colas esperando su ejecución. El sistema operativo debe ir seleccionando procesos de dichas colas previas a la ejecución, siguiendo algún esquema.
Cada selección es llevada a cabo por el planificador apropiado. El componente del sistema operativo que se encarga de seleccionar procesos para su ejecución se conoce como
 Planificador
Algoritmos de planificación
Los algoritmos que se aplican para gestión de la planificación se basan en los siguientes
criterios básicos:
• 
FCFS. El primero en llegar es el primero en ser servido. Se basa en una lista de  procesos (usando como elementos de la lista a los BCP de cada proceso). De tal
manera que el primero de la lista (el que llegó primero) se ejecutará primero y elúltimo (el que llegó último) se ejecutará al final. Cada proceso se ejecuta hasta que por alguna causa “natural” suspenda su ejecución, por ejemplo cuando termina o debe realizar una operación de E/S.
• 
•  
Colas de prioridad. Similar al anterior pero se prevé que existan varios procesos con la misma prioridad. Primero se ejecutan los de la cola de mayor prioridad. Dentro de cada cola se aplica un criterio como FCFS o Round Robin.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 35/189

La memoria
La memoria es uno de los recursos más importantes de la computadora y, en consecuencia, la  parte del sistema operativo responsable de tratar con este recurso, el gestor de memoria, es un componente básico del mismo. El gestor de memoria del sistema operativo debe hacer de
 puente entre los requisitos de las aplicaciones y los mecanismos que proporciona el hardwarede gestión de memoria.
Se trata de una de las partes del sistema operativo que está más ligada al hardware. Esta estrecha colaboración ha hecho que tanto el hardware como el software de gestión de memoria hayan ido evolucionando juntos.
Las necesidades del sistema operativo han obligado a los diseñadores del hardware a incluir nuevos mecanismos que, a su vez, han posibilitado el uso de nuevos esquemas de gestión de memoria. De hecho, la frontera entre la labor que realiza el hardware y la que hace el software de gestión de memoria es difusa y ha ido también evolucionando.
En un sistema monoprogramado, la memoria principal se divide en dos partes: una parte para el sistema operativo y otra parte para el programa que se ejecuta en ese instante. En un sistema multiprogramado, la parte de "usuario" de la memoria debe subdividirse aún más para hacer sitio a varios procesos. La tarea de subdivisión la lleva a cabo dinámicamente el sistema operativo y se conoce como gestión de memoria.
En un sistema multiprogramado resulta vital una gestión efectiva de la memoria. Si sólo hay unos pocos procesos en memoria, y la mayor parte del tiempo están esperando a la E/S, el
 procesador estará desocupado. Por ello, hace falta repartir eficientemente la memoria para meter tantos procesos como sea posible.
Paginación y segmentación 
Cuando se usa el almacenamiento de los procesos en direcciones continuas y contiguas, tanto las particiones de tamaño fijo como las de tamaño variable hacen un uso ineficiente de la memoria; las primeras generan fragmentación interna, mientras que las segundas originan fragmentación externa.
También, el uso de particiones contiguas tiene el inconveniente de complicar el uso de regiones variables en los procesos, como por ejemplo, imposibilita compartir memoria entre los procesos. También, el intercambio con el disco deberá realizarse con el proceso completo (algo que es ineficiente). Y en otros aspectos, impide la optimización a fondo de la gestión de la memoria física.
Una posible solución a estos problemas es dividir al medio de almacenamiento en pequeñas  particiones administrables, de tal manera que se puedan usar como unidades de asignación  para las regiones de los procesos. Una de esas soluciones consiste en la paginación y la otra solución se conoce como segmentación.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 36/189

Paginación simple 
Supóngase, que la memoria principal se encuentra particionada en trozos iguales de tamaño fijo relativamente pequeños y que cada proceso está dividido también en pequeños trozos de tamaño fijo y del mismo tamaño que los de memoria.
En tal caso, los trozos del proceso, conocidos como páginas, pueden asignarse a los trozos (libres) de memoria, conocidos como marcos o marcos de página. En este apartado se verá que el espacio malgastado en memoria para cada proceso por fragmentación interna consta sólo de una fracción de la última página del proceso. Además, no hay fragmentación externa.
El sistema operativo mantiene una tabla de páginas para cada proceso. La tabla de páginas muestra la posición del marco de cada página del proceso. Ahora el marco de página es la unidad de asignación para el espacio físico que necesita un proceso. La página es el contenido y el marco es el contenedor. Se asignan marcos al proceso, este puede liberar marcos de
 páginas y también puede solicitar nuevas páginas que se colocarán en nuevos marcos.
Dentro del programa, cada dirección lógica constará de un número de página y de un desplazamiento dentro de la página.
Con paginación, el hardware del procesador realiza la traducción de direcciones lógicas a físicas. Ahora, el procesador (usando su MMU-Unidad de manejo de memoria-) debe saber cómo acceder a la tabla de páginas del proceso actual.
Dada una dirección lógica (número de página, desplazamiento), el procesador emplea la tabla de páginas para obtener una dirección física (número de marco, desplazamiento).
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 37/189

Segmentación Simple
Otro modo de sub-dividir el programa es la segmentación. En este caso, el programa y sus datos asociados se dividen en un conjunto de segmentos. No es necesario que todos los segmentos de todos los programas tengan la misma longitud, aunque existe una longitud máxima de segmento. Como en la paginación, una dirección lógica segmentada consta de dos
 partes, en este caso un número de segmento y un desplazamiento.
En ausencia de un esquema de memoria virtual, sería necesario cargar en memoria todos los segmentos de un programa para su ejecución.
Un programa puede ocupar más de un segmento y éstas no tienen por qué estar contiguas. El mismo beneficio que obtuvimos con la paginación.
La segmentación elimina la fragmentación interna, pero sufre de fragmentación externa.
Mientras que la paginación es transparente al programador, la segmentación es generalmente
visible a este, y se proporciona como una comodidad para la organización de los programas ydatos. Se trata de ajustar un segmento a una región del proceso. De esta manera, el  procesador, que reconoce a los segmentos, también reconocerá a las regiones y proporcionará soporte de gestión por hardware para estas.
 Normalmente, el programador o el compilador, asigna los programas y los datos a diferentes segmentos. Y en aras de la programación modular, el programa o los datos pueden ser divididos de nuevo en diferentes segmentos.
El principal inconveniente de este servicio es que el programador debe ser consciente del uso de segmentos y de la limitación de tamaño máximo de los segmentos.
De forma análoga a la paginación, un esquema de segmentación simple hará uso de una tabla
de segmentos para cada proceso y una lista de bloques (huecos) libres en memoria principal.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 38/189

El sistema de archivos
Los sistemas de archivos (file system en inglés), estructuran la información guardada en una unidad de almacenamiento (normalmente un disco duro de una computadora), que luego será representada ya sea textual o gráficamente utilizando un gestor de archivos. La mayoría de los
sistemas operativos poseen su propio sistema de archivos. Estos sistemas de archivos tienen un nombre y una norma que los define. Por ejemplo tenemos los siguientes sistemas de archivos:
FAT 16
FAT 32
…..
……
Cada sistema de archivo tiene su propia forma de manejo de tal manera que los sistemas operativos deberán conocer dichas normas para poder trabajar con ellos. Cada sistema operativo normalmente tiene módulos o programas que son usados para interpretar el contenido de un sistema de archivo almacenado en algún dispositivo físico.
Lo habitual es utilizar dispositivos de almacenamiento de datos que permiten el acceso a estos, como una cadena de bloques de un mismo tamaño, a veces llamados sectores, usualmente de 512 bytes de longitud. Sin embargo el sistema operativo solo maneja discos lógicos (también llamados “file systems”). Se deja para los programas conocidos como “drivers” el manejo de las características de bajo nivel como los son los cilindros, pistas y sectores. También las rutinas del BIOS pueden reconocer las características de bajo nivel de los dispositivos de almacenamiento.
Los sistemas de archivos tradicionales proveen métodos para crear, mover, renombrar y eliminar tanto archivos como directorios.
Todas las aplicaciones necesitan almacenar y recuperar información. Mientras un proceso está ejecutándose puede almacenar cierta cantidad de información dentro de su propio espacio de direcciones. Sin embargo, esa capacidad de almacenamiento está limitada por el tamaño del espacio de direcciones virtual. Para algunas aplicaciones ese tamaño es adecuado, pero para otras, tales como la reserva de billetes de avión, la banca o el registro de las operaciones realizadas por una empresa, resulta demasiado pequeño.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 39/189

Un segundo problema con el que nos encontramos al guardar la información dentro del espacio de direccionamiento de un proceso es que cuando el proceso termina, la información se pierde. Para muchas aplicaciones (por ejemplo para las bases de datos) la información debe ser retenida durante semanas, meses o incluso para siempre. Es inaceptable permitir que la información se desvanezca cuando termina el proceso que la utiliza. Además, tampoco debe
 perderse aunque el proceso se destruya repentinamente debido a una caída del sistema. Un tercer problema es que frecuentemente es necesario que múltiples procesos accedan a (partes de) la información al mismo tiempo. Si disponemos de una guía telefónica almacenada dentro del espacio de direccionamiento de un único proceso, sólo ese proceso va a poder acceder a ella. La manera de resolver este problema es hacer que la información sea ella misma independiente de cualquier proceso.
Entonces tenemos ya tres requerimientos esenciales para el almacenamiento a largo plazo de la información:
•  Debe poder almacenarse una cantidad de información muy grande. •  
La información debe permanecer tras la terminación del proceso que la usa. •  Debe permitir que múltiples procesos puedan acceder a la información
concurrentemente
La solución usual a todos estos problemas es almacenar la información sobre discos y otros medios externos en unidades denominadas archivos. Los procesos pueden entonces leerlos y crear nuevos archivos si es necesario. La información almacenada en los archivos, debe ser
 persistente, no debe verse afectada por la creación y terminación de los procesos. Un archivo sólo puede desaparecer cuando su propietario lo borre de forma explícita.
Los archivos están gestionados por el sistema operativo. Pero la forma de cómo están estructurados, cómo se nombran, se acceden, se utilizan, se protegen, se transfieren e implementan, son temas principales en el diseño de los sistemas de archivos. Globalmente, a esa parte del sistema operativo que trata los archivos y directorios se la conoce como administración del sistema de archivos y es el tema de este capítulo.
Desde el punto de vista de los usuarios, el aspecto más importante de un sistema de archivos es su apariencia, es decir, qué constituye un archivo, como se nombran y se protegen los archivos, qué operaciones se permiten, etc. Los detalles, de si para seguir la pista de la memoria libre se utilizan listas enlazadas o mapas de bits, o el detalle de cuántos sectores hay en un bloque lógico, son cuestiones de menos interés, aunque son de gran importancia para
los diseñadores del sistema de archivos. Por esa razón, hemos estructurado el capítulo en varias secciones. Las primeras secciones tienen que ver con la interfaz del usuario con los archivos y con los directorios, respectivamente. A continuación se discutirá en detalle la forma en la cual se implementa el sistema de archivos. Finalmente, daremos algunos ejemplos de sistemas de archivos reales.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 40/189

Directorios
Asociado con cualquier sistema de gestión de archivos o cualquier colección de archivos suele haber un directorio de archivos. El directorio contiene información sobre los archivos, incluyendo atributos, ubicación y propietario.
En realidad el directorio es un tipo de archivo como ya se mencionó anteriormente. El único directorio que no es archivo es el directorio raíz. Este directorio se crea en el momento del formateo del sistema de archivos y tiene un tamaño fijo, o sea que no puede crecer.
Cada sub-directorio (o simplemente directorio) contiene información que permite administrar a otros sub-directorios y archivos. Como los archivos se organizan mediante registros, en el caso de los directorios, estos registros se denominan entradas del directorio, y contienen cada uno de ellos datos administrativos de un sub-directorio o archivo. Estos datos administrativos serán diferentes para distintos sistemas de archivos y se complementan con otra información administrativa que tiene cada archivo, en la parte de administración del sistema de archivo.
Esta información se puede obtener en forma indirecta mediante comandos o alguna herramienta gráfica. También se puede ver la estructura de directorios y navegar por él. Ya vimos que el nombre del archivo permite la navegación y localización del archivo dentro del árbol de directorios.
Implementación del sistema de archivos 
Este tema se refiere a como el sistema de archivos organiza su infraestructura para almacenar a los archivos en el disco lógico. Como ya vimos el sistema operativo solo ve discos lógicos y su infraestructura depende del sistema de archivos con que se formatea dicho disco. Un disco
duro estará particionado en uno o más discos lógicos.
Discos lógicos
El disco duro está organizado en discos lógicos que son las unidades de almacenamiento masivo que permiten que en un mismo disco físico se puedan disponer de varios sistemas de archivos. Para ello se crean particiones que deberán ser reconocidas por el sistema operativo. Estas particiones una vez formateadas contendrán un disco lógico. Primero deberemos crear como mínimo una partición y como máximo 4 particiones. Luego deberemos formatear las
 particiones para crear el disco lógico de acuerdo al sistema de archivos con que se formatee.
En la siguiente figura vemos el significado de un disco lógico: como una sub-división del disco físico, como un árbol de directorios y como un recurso de almacenamiento, que posee como todo recurso una estructura donde almacenar los atributos o datos administrativos.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 41/189

• 
Espacio particionado •  
Espacio sin particionar
El sector de arranque es el primer sector de todo disco duro (cabeza 0, cilindro 0, sector 1). En él se almacena la tabla de particiones y un pequeño programa master de inicialización, llamado también Master Boot. Este programa es el encargado de leer la tabla de particiones y ceder el control al sector de arranque de la partición activa. Si no existiese partición activa, mostraría un mensaje de error.
El espacio particionado es el espacio del disco que ha sido asignado a alguna partición. El espacio no particionado, es espacio no accesible del disco ya que todavía no ha sido asignado
a ninguna partición. A continuación se muestra un ejemplo de un disco duro con espacio  particionado (2 particiones primarias y 2 lógicas) y espacio todavía sin particionar.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 42/189

El caso más sencillo consiste en un sector de arranque que contenga una tabla de particiones con una sola partición, y que esta partición ocupe la totalidad del espacio restante del disco. En este caso, no existiría espacio sin particionar.
Particiones primarias y unidades lógicas
Ambos tipos de particiones contienen los correspondientes discos lógicos del computador. Sin embargo, hay una diferencia importante: sólo las particiones primarias se pueden activar. Además, algunos sistemas operativos no se pueden instalar en unidades lógicas o no pueden
acceder a particiones primarias distintas a la suya.
Lo anterior nos da una idea de qué tipo de partición utilizar para cada necesidad. Por defecto, los sistemas operativos deben instalarse en particiones primarias, ya que de otra manera no
 podrían arrancar (aunque actualmente, se ha superado esta limitación). El resto de particiones que no contengan un sistema operativo, es más conveniente crearlas como unidades lógicas. Sin embargo ciertos sistemas operativos como Linux pueden instalarse en unidades lógicas.
Estructura de un archivo
Consta como todo recurso de dos partes bien diferenciadas: a) parte administrativa, b) parte de
trabajo. La organización de ambas partes depende del sistema de archivos en cuestión. A continuación podremos apreciar dicha estructura para el sistema de archivos FAT.
La parte administrativa comienza en la entrada del directorio que corresponde al archivo en  particular.
En la siguiente figura podemos apreciar las entradas de un directorio del sistema de archivos FAT. La dirección hace mención a la ubicación del campo respectivo, relativo al comienzo de la entrada.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 43/189

El número del primer bloque o cluster, nos lleva a la tabla de FAT donde obtenemos los  punteros a los bloques del archivo en forma ordenada, desde el primero, hasta localizar al último. Los punteros a los bloques permitirán localizar y acceder al archivo en forma ordenada. En la siguiente figura vemos la forma y uso de la tabla de FAT.
Vemos que el primer bloque (número lógico) es el 4 (número físico), en dicho casillero se encuentra el 7 (número físico) del segundo bloque y así sucesivamente hasta llegar al quinto
 bloque que se indica como número físico 12 que tiene grabado un -1 (FFFF en hexadecimal, o
16 bits en 1) para el caso de una tabla de FAT de 16 bits, indicando que allí termina el archivo.
Por lo tanto, la parte administrativa consiste en la entrada del directorio, más los punteros  correspondientes de la tabla de FAT. La parte de trabajo serán los bloques  cuyos identificadores o punteros son: 4, 7, 2, 10 y 12.
Vemos un ejemplo de un archivo (Archivo A) cuyo número del primer cluster es 4 y que consta de 5 bloques.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 44/189

1.1 Estructura de una red TCP/IP Definimos como estructura física de la red a los distintos elementos físicos que otorgan
funcionalidad a la misma. En esta sección trataremos distintos temas relacionados con dichoselementos físicos.
Por un lado tenemos las computadoras que son máquinas electrónicas que tienen la  posibilidad de poder dialogar con las restantes que integran la red. Estas computadoras  pueden cumplir dos funciones perfectamente definidas: 1) las estaciones que son las computadoras que usan la red y que contienen los programas de aplicación, ya sea aplicaciones clientes o aplicaciones servidoras. 2) los nodos de la red que cumplen funciones de administración de los datos que circulan por la red.
Por otro lado tenemos el medio de comunicación que permite vincular eléctricamente las
distintas computadoras. Este medio más los nodos conforman lo que comúnmente se conocecomo subred de comunicación, o simplemente subred. El trabajo de la subred consiste en transportar mensajes entre las computadoras de la misma manera que el sistema telefónico transporta palabras entre las personas que se comunican.
El análisis y diseño de la red se simplifica notablemente cuando se separan los aspectos  puros de comunicación (subred), de los aspectos de las aplicaciones (estaciones).
La figura muestra la relación entre los distintos componentes fundamentales de la red.
n o d o d e a c c e s o
e s t a c i ó nn o d o
s u b r e d
r e d d e c o m p u t a d o r a s
Existen diferencias significativas en la subred según se trate de una red de área local (LAN), una red de área metropolitana (MAN), o una red de área extendida (WAN).
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 45/189

Las redes LAN interconectan computadoras que se encuentran en una región relativamente  pequeña (en un edificio, en una habitación, en un predio privado) y normalmente contienen muy pocos nodos o ninguno.
Las redes MAN comunican computadoras en un centro urbano, tienen bastantes nodos y sus características están definidas por factores geográficos y políticos de dicho centro.
Las redes WAN comunican computadoras de todo el planeta y poseen muchísimos nodos con características muy heterogéneas.
En términos generales puede decirse que hay dos tipos de subredes de comunicación:
1)  
 
comunicación por difusión.
En la comunicación punto a punto los nodos se comunican por medio de varios cables, haciendo uso de líneas telefónicas, redes privadas, etc. Siempre existe un "medio" que
comunica en forma directa dos nodos vecinos. Cuando un mensaje se envía de un nodo a otro (en el contexto de la subred se denomina normalmente paquete) a través de nodos intermediarios, el paquete se almacena íntegramente en el nodo intermediario, y cuando la línea de salida lo permite se reenvía el paquete hacia el destino.
La subred que utiliza este principio se denomina punto a punto, de almacenamiento y reenvío o de conmutación de paquetes. En la figura se muestran varias topologías posibles.
 Normalmente las redes locales tienen una topología simétrica, mientras que las de área extendida tienen una topología irregular.
En una red de área local simple, el nodo de acceso se reduce a un circuito que se incluye en el interior de la computadora, de tal manera que siempre habrá un nodo de acceso por cada estación. En una red de área extendida puede haber un nodo de acceso para varias computadoras.
La difusión se emplea como un segundo tipo de arquitectura, y la utilizan las mayorías de las redes de área local y un número reducido de redes de área extendida. Los sistemas de difusión tienen un solo canal que es compartido por todas las máquinas que usan la red. Los
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 46/189

 paquetes enviados por una máquina llegan a todas las estaciones, pero sólo será interpretado  por la estación destinataria cuya dirección se indica en el paquete.
También existe la posibilidad de enviar un paquete para que sea recibido por todas las estaciones (o un grupo de ellas) de la red. Para ello se indica un código especial en el campo de direcciones del paquete. En la figura se indican algunas topologías posibles para las redes
de difusión.
Como el medio es único, solamente una computadora podrá transmitir en un instante dado. Se necesita un mecanismo para resolver los conflictos cuando dos o más máquinas deseen enviar paquetes al mismo tiempo. Este mecanismo de arbitraje puede ser centralizado o distribuido.
El mecanismo es centralizado cuando existe una estación de control con características de  privilegio que decide cuál de las estaciones debe transmitir en un momento determinado.
En un mecanismo distribuido no existe tal estación privilegiada y entre todas establecen unaregla de juego para definir que estación tiene el control del medio para poder transmitir.
En el ejemplo del satélite puede haber transmisiones simultáneas si cada una de las estaciones transmitiese en distintas frecuencias. Digamos que en este caso las señales no interfieren entre sí.
Como ejemplo sencillo de la conexión física de una computadora a una red LAN veremos el caso de una red antigua de 10 Mbps y otra actual de 100 Mbps.
En la siguiente figura se muestra el aspecto físico de la conexión con la red conocida como 10BaseT, que tiene las siguientes especificaciones básicas:
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 47/189

Se trata de una topología en estrella con un dispositivo central denominado hub (conocido también como concentrador o repetidor). Cada computadora tiene una conexión directa con el hub. Esta conexión consta de dos pares de cable de cobre de par trenzado, uno para transmitir
y otro para recibir. En el extremo de la conexión hay un conector RJ-45, que se parece al conector RJ-11 utilizado en los teléfonos.
La “T” indica par trenzado, y “10” significa que la velocidad de transmisión es de 10 mbps. La distancia máxima de la conexión entre la computadora y el hub es de 100 metros, y por lo tanto la distancia máxima entre dos computadoras conectadas al hub, es de 200 metros. Esta distancia, entre computadoras, se puede incrementar utilizando dispositivos de red como ser hubs, switches, routers, y enlaces de fibra óptica.
En esencia, un hub es un repetidor: cuando recibe un bit desde la placa de red de la computadora, reenvía el bit a las demás computadoras. De esta manera cada placa puede
sondear el canal para ver si está vacío y detectar una colisión mientras está transmitiendo.











http://slidepdf.com/reader/full/servidores-w2008-unidad-1 48/189

Cableado UTP 
Cuando el tráfico en la red se hace pesado y empiezan a ocurrir las colisiones se produce una disminución del tiempo de respuesta de la red.
Sin embargo los hubs proporcionan funciones de gestión de red que ayudan al administrador.
Por ejemplo, cuando un adaptador funciona incorrectamente y envía continuamente tramas Ethernet en forma ininterrumpida por error de la placa de red. Si esto sucede en una Ethernet
con cable coaxial (conocida como 10Base2) la red deja de funcionar y ninguna de las computadoras de la red podrá comunicarse.
Pero en una red 10BaseT continuará funcionando por que el hub detecta el problema y desconectará internamente a la computadora que tiene la placa defectuosa.
Los hubs que son administrables pueden ser controlados desde una computadora para mostrar información de la actividad del hub en distintos formatos, que pueden ser utilizados por el administrador para conocer y corregir definiciones de configuración de la red.
Otra ventaja del HUB respecto a las especificaciones 10Base2 y 10Base5, es que ahora la
detección de las colisiones no se realiza mediante la detección analógica de la amplitud de laseñal, sino que se considera colisión cuando dos o más computadoras acceden simultáneamente al HUB. De esta forma se dice que la detección es digital y no analógica.
Actualmente se usan redes LAN de 100 Mbps, compatibles con la red que vimos anteriormente. Esta tecnología permite la extensión de una red ETHERNET de 10BaseT mediante el uso de SWITCHES. Esta es una forma de mejorar el costo-efectividad de la
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 49/189

 plataforma de red sin necesidad de cambiar la anterior. La topología de 100 BaseT aumenta 10 veces la velocidad de 10Mbps ETHERNET.
Para la extensión de la red es necesario utilizar otro tipo de tarjeta de interfase de red, que las que se utilizan normalmente. Por esto, es necesario hacer un estudio minucioso para verificar la necesidad de expansión de la red, puesto que implica el uso de otro tipo de tarjeta y muchas veces un nuevo cableado.
En la siguiente figura se nuestra como se pueden combinar las tecnologías de 10BaseT y 100BaseT.
Vemos que se agrega un nivel más de jerarquía en la parte superior de esta, donde el tráfico es
más intenso.
El modelo TCP/IP fue pensado para trabajar con redes interconectadas como se muestra en la siguiente figura. Allí vemos varias redes físicas - cada una con su propia dirección de red interconectada por computadoras conocidas como ruteadores (routers) o simplemente “dispositivos de encaminamiento”.
Cada computadora tiene su propia dirección física – conocida como MAC Address-, y también su propia dirección IP. La primera es administrada por la capa de enlace y la segunda
 por la capa IP.
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 50/189

•  
Dirección IP (origen y destino). •  
Dirección de puerto (origen y destino).
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 51/189

1.1.1 Protocolo TCP/IP
El software que maneja las redes de computadoras está diseñado de una forma muy estructurada. La mayoría de las redes se organizan en una serie de capas o niveles con el objeto de reducir la complejidad de su diseño.
El número de capas y la función específica de cada una de ellas varía de una red a otra pero siempre existe un orden jerárquico que define que las capas inferiores prestan servicios a las capas superiores. También, la capa n  de una máquina conversa con la capa n  de otra máquina. Las reglas y convenciones utilizadas en esta conversación se conocen como
 protocolo de la capa n. Podríamos decir que los protocolos son los idiomas  que habla  una computadora. El conjunto de protocolos de todas las capas se conoce comúnmente también como el “protocolo” de la red (como si fuese uno solo).
En la figura se muestra tal arquitectura para una red de siete capas :
En realidad no existe una transferencia física directa de datos desde la capa n de una máquina a la capa n  de la otra, sino más bien, cada capa pasa la información a la capa inmediata inferior y así sucesivamente hasta que se alcanza la parte más baja de la estructura. Debajo de la capa 1 esta el medio físico a través del cual se realiza la comunicación física real.
En el dibujo se muestran con líneas gruesas el camino de la comunicación real y con líneas finas el camino de la comunicación virtual.
Entre cada par de capas adyacentes (dentro de cada computadora) existe una interfase la cual define los servicios que la capa inferior ofrece a la capa superior. Las interfases deben estar
 perfectamente definidas de tal manera que una capa sepa exactamente como pedirle servicios a la otra y a su vez la otra capa sepa como debe proporcionar dichos servicios.
Todo esto se debe respetar con independencia del trabajo interno de cada capa. De tal manera que si se modifica una capa por motivos de optimización de su performance, no afecte la normal comunicación con las capas vecinas.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 52/189

Al conjunto de capas y protocolos se le denomina arquitectura de red. Las especificaciones de ésta deberán contener la información suficiente que le permita al diseñador construir un
 programa para cada capa con el protocolo apropiado.
Sin embargo las interfaces no forman parte de dicha estructura ya que están contenidas en el interior de la máquina e incluso no tienen por qué ser iguales a las correspondientes en la otra
máquina. Sin embargo una estandarización de éstas simplifica el diseño del software y la compatibilidad de los mismos.
Veremos algunos de los temas que deberán ser resueltos por los protocolos de nuestra arquitectura que acabamos de plantear.
Cada capa debería tener un mecanismo para el establecimiento de la conexión. Además como en una red hay varias máquinas y en cada máquina hay varios procesos se debe especificar
 perfectamente el destinatario de los mensajes que cada capa realice. También deberá existir un mecanismo para definir cuando se interrumpe la comunicación establecida con anterioridad.
Otras definiciones en el protocolo se refieren al manejo de los datos que se transmiten. La comunicación puede ser siempre en un solo sentido (simplex); en ambos sentidos pero en forma no simultánea (semiduplex); y en ambos sentidos en forma simultánea (duplex). Entre ambas capas se pueden definir varios canales lógicos para la comunicación entre ellas.
Un número considerable de redes tienen por lo menos dos canales lógicos: uno para datos normales y otro para datos que necesitan la máxima velocidad de transferencia.
Un problema que debe resolverse, es el inherente a toda comunicación a distancia: que siempre se producirán errores debidos a todos los problemas de tipo físico que afectan a los
medios de comunicación. Sin embargo siempre es posible retransmitir la información mal recibida si se toman los recaudos correspondientes. Para ello se definen códigos detectores y correctores de errores que se encargan de detectar primero el error para luego (en los códigos correctores de errores) corregirlos automáticamente. Siempre existe la posibilidad de que se
 produzcan errores bastante severos y la solución será retransmitir la información.
Por lo tanto es necesario que el receptor le indique al transmisor en qué estado llego la información y a su vez el transmisor debe mantener en la memoria de la maquina el paquete a retransmitir.
Otra situación a resolver es la que se presenta cuando una estación debe recibir la
información fragmentada en varios paquetes que a su vez recorrieron caminos físicos distintos  para llegar a destino. Como resultado de esto los fragmentos (paquetes) pueden llegar en una secuencia que no es la correcta. Es responsabilidad del transmisor de indicar el orden lógico de los paquetes que a su vez deberán ser organizados por el receptor para mantener dicho orden.
Una dificultad se presenta cuando el caudal de paquetes que arriban a una estación es mayor a la capacidad que posee dicha estación para administrarlos. Para eso existen mecanismos
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 53/189

que permiten regular las transferencias de paquetes. En el caso de interconexión de redes aparecen nuevos problemas como por ejemplo, que cada red adopta un tamaño distinto para el
 paquete.
Por último mencionaremos la problemática que se presenta en una red que ofrece múltiples caminos para comunicar a dos estaciones cualesquiera. Debe existir un criterio de
encaminamiento de las comunicaciones que permita una máxima performance de la transmisión a través de la subred.
Vemos a continuación las características fundamentales de cada unas de las capas para el caso de una arquitectura real.
El modelo que se adoptó en épocas anteriores y que todavía es usado por algunos, es lo que se conoce como modelo de referencia OSI (INTERCONEXION DE SISTEMAS ABIERTOS) que fue propuesto por la Organización Internacional de Normas (ISO). En forma abreviada, se conoce a este modelo como MODELO DE REFERENCIA OSI, que cuenta con siete capas según se muestra en la figura.
Los criterios que se tuvieron en cuenta para definir estas siete capas fueron aquellos que  presuponían una mayor eficiencia del sistema como por ejemplo minimizar el flujo de información a través de las interfases de tal manera que la arquitectura sea fácil de manejar.
En realidad el modelo OSI indica que es lo que debe hacer cada capa y no como debe hacerlo  por lo que no constituye una verdadera arquitectura de red. Sin embargo ha generado normas  para todas las capas aunque estrictamente hablando no forman parte del modelo.
En la figura se observan los protocolos que intercambian las capas entre sí. A dicho protocolo
se lo denomina genéricamente como PDU que significa: Unidad de Datos del Protocolo. Porejemplo para la capa de aplicación se denomina: Unidad de Datos del Protocolo de Aplicación (APDU).
El protocolo TCP/IP
A continuación veremos las características principales de este protocolo que fue impuesto en forma universal por la red de mayor éxito en la actualidad. Para entender rápidamente sus
 principales funciones nos remontaremos al modelo OSI que tomamos como referencia. El
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 54/189

 protocolo TCP/IP fue creado por el Departamento de Defensa de los EEUU, y responde al siguiente esquema de capas, como lo muestra la siguiente figura:
En la figura se muestra la relación entre las capas de uno y otro modelo.
En realidad esta es una comparación simplificada con el modelo OSI ya que ambos modelos no tiene la misma precisión en las definiciones de las capas.
El modelo OSI define con precisión la funcionalidad de las capas pero no así TCP/IP. Este ultimo es mas flexible ya que debe implementarse a través de las RFC que son definiciones
 puntuales de los protocolos y no de las capas. Como sabemos una capa puede tener uno o mas  protocolos. Cada protocolo se materializa por las cabeceras. También algunos autores consideran que TCP/IP tiene cinco capas como se muestra en la siguiente figura.
Capa de Aplicación: proporciona la comunicación entre procesos o aplicaciones de computadoras separadas.
Capa de Transporte: proporciona un servicio de transferencia de datos extremo a extremo.Esta capa puede incluir mecanismos de seguridad y control de la congestión.
Capa Internet: Proporciona interconexión entre redes de igual o diferente naturaleza.
Capa de acceso a la red: Conecta a un sistema final con la sub-red.





http://slidepdf.com/reader/full/servidores-w2008-unidad-1 55/189

De acuerdo a este modelo tenemos la siguiente comparación con el modelo OSI y de esa forma podemos sacar las conclusiones sobre la funcionalidad de cada capa del modelo TCP/IP.
Otra diferencia con el modelo OSI es que TCP/IP no exige que se haga uso de todas las capas  para respetar el orden jerárquico. Es posible desarrollar aplicaciones que invoquen el servicio de cualquier capa.
1.1.2 Direccionamiento IP
En la expedición de los paquetes IP intervienen los siguientes dispositivos:
•  el host de origen. •  el host de destino. •
 
los routers. •  los servidores DNS.
La siguiente figura muestra el esquema de los dispositivos que intervienen:
La dirección IP














http://slidepdf.com/reader/full/servidores-w2008-unidad-1 56/189

Como vemos, los 32 bits están divididos en dos campos que se denominan “Net ID” y “Host ID” respectivamente. El primero identifica a la red y el segundo a una computadora de esa red. También se observa que los bits más significativos definen lo que llamamos “Clase” de la red, que permitirá reconocer el límite entre ambos campos.
La dirección IP se representa con la siguiente notación, que usa números decimales y puntos:
YY . XX . XX . XX
Cada número decimal representa un byte. El más significativo se destaca del resto por que define la clase de la red. Por ejemplo, la siguiente tabla permite hacer la siguiente diferenciación de clases según los distintos valores posibles de YY:
YY  CLASE
0 - 126 CLASE A
128 - 191 CLASE B
192 - 223 CLASE C
•  
Dirección local
Representa la dirección de la propia computadora cualquiera sea su Dirección IP.
127.XX.XX.XX
• 
Dirección de red
Toda dirección con el siguiente formato se usa para identificar una red y no una computadora:
 Net_ID0000...0
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 57/189

• 
 Net_ID111....1
Consiste en el número del Net ID seguido de unos hasta completar los 32 bits. Es ladirección de destino cuando se envía un mensaje a todos los hosts de esa red.
•  Dirección de difusión local
255. 255. 255. 255
Es la dirección de destino cuando se envía un mensaje a todos los hosts de la propia red.
Subredes
En la parte superior izquierda de la siguiente figura se muestra la red de dirección 132.35.0.0 a la cual se accede a través del ruteador R.
Esta red tendría el problema en que todas las computadoras comparten todo el tráfico que  potencialmente puede ser muy grande. Si este fuese el problema, una posible solución sería segmentar dicha red en varias subredes. De esta forma independizamos el tráfico de cada subred. Tenga en cuenta que cada subred es un ámbito de difusión.
También podría ser que en la red coexistan varios departamentos, y que cada uno de ellos quiera administrar en forma separad las computadoras. También la subdivisión en subredes
 podría ser la solución.
En la figura de la derecha se muestra la solución con la implementación de subredes. Vemos que el ruteador ahora dispone de una salida independiente para cada subred.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 58/189

En la parte inferior de la figura se muestra como cambia la interpretación de la dirección IP. En el primer caso se muestra la situación original, y más abajo se muestra que, cada red ahora tiene menos computadoras, y por lo tanto el Host ID necesita menos bits.
Los bits que se restan del campo Host ID son exactamente los bits que se usarán para identificar las distintas subredes. Por lo tanto cambia el límite entre el Net ID y el Host ID.
Esto quiere decir que desaparece el uso de la clase para definir cuál es el Net Id y cuál es elHost ID. Esto se muestra con detalle en la siguiente figura.
Para poder definir el límite entre el Net ID y el Host ID se introduce el concepto de máscara de subred que consiste en 32 bits que contienen unos en el campo del Net ID y ceros en el campo del Host ID, como en el siguiente ejemplo.
11111111111111111111 000000000000
255.255.240.0
Para el resto de la Internet solo figura una sola red de acuerdo a la clase (A, B, C, etc.) para la simplificación del encaminamiento. Solo los encaminadores de acceso a las subredes y las estaciones finales de las subredes, conocen la máscara de la sub-red a la que están conectados.
El uso de esta máscara le permite al computador de origen definir si el paquete va a la misma sub-red o a otra. Si debe viajar a otra sub-red deberá enviar la trama a un encaminador que deberá ser local a la misma sub-red de origen.
La operación para determinar la dirección de red de una dirección IP es la siguiente:
Dirección de red = Dirección IP AND Máscara de Subred
Los encaminadores aplican la máscara de su-red para definir si el paquete corresponde a alguna computadora de alguna sub-red conectada al propio encaminador. En caso contrario lo reenvían a otro encaminador según la tabla de encaminamiento vigente. Los encaminadores deberían poder entregar los paquetes al encaminador de la misma red del host de destino. En
la siguiente figura se muestra este comportamiento.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 59/189

Los ruteadores de una red deberían conocer las máscaras de subred de las subredes de dicha red, en la información que poseen en sus tablas de ruteo. Esto lo define el respectivo
 protocolo de ruteo.
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 60/189

• Dirección IP
• Servidor DNS
• Servidor WINS
Dirección IP
Debe configurar cada interfaz en cada nodo TCP/IP (host o enrutador) con una dirección IP única que sea correcta para el segmento de red conectado. La dirección IP es un elemento de configuración necesario.
Máscara de subred
Debe configurar cada interfaz en cada nodo TCP/IP (host o enrutador) con una máscara de subred que, cuando se combine con la dirección IP, genere el Id. de red. Todas las interfaces IP del mismo segmento de red deben utilizar el mismo Id. de red. Por tanto, todas las interfaces IP del mismo segmento de red deben utilizar la misma máscara de subred. La
máscara de subred es un elemento de configuración necesario.
Puerta de enlace predeterminada
Para la comunicación con nodos TCP/IP de otros segmentos de red, debe configurar al menos una interfaz con la dirección IP de una puerta de enlace predeterminada (un enrutador local que reenvíe el tráfico TCP/IP remoto a su destino).
 No necesita configurar una puerta de enlace predeterminada para una red que sólo tenga un segmento de red.
Servidor DNS
Un servidor DNS puede resolver nombres de dominio en direcciones IP. Cuando un host TCP/IP está configurado con la dirección IP de un servidor DNS, el host TCP/IP envía consultas de nombres DNS al servidor DNS para su resolución. Se requiere un servidor DNS
 para equipos que operen en entornos de red basados en Active Directory.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 61/189

Servidor WINS
Un servidor WINS puede almacenar y resolver nombres NetBIOS en direcciones IP. Cuando un host TCP/IP está configurado con la dirección IP de un servidor WINS, el host TCP/IP registra sus propios nombres NetBIOS con el servidor WINS y envía consultas de nombres
 NetBIOS al servidor WINS para su resolución. Se recomienda encarecidamente que utilice un
servidor WINS si la red tiene más de un segmento de red y si dispone de equipos que no están  basados en Active Directory (por ejemplo, equipos con Windows NT 4.0, Windows 95, Windows 98 y Windows Millennium Edition).
 No necesita configurar un servidor WINS para una red que sólo tiene un segmento de red. Los servidores que ejecutan Windows Server 2008 pueden utilizarse como servidores WINS.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 62/189

1.2 Protocolo TCP/IP en Windows Server 2008
TCP/IP se puede configurar en servidores con Windows Server 2008 mediante los siguientes
métodos:
TCP/IP utiliza Direcciones IP privadas automáticas (APIPA, Automatic Private IP Addressing) de forma predeterminada para proporcionar configuración automática mediante un intervalo de direcciones IP comprendido entre 169.254.0.1 y 169.254.255.254, y la máscara de subred 255.255.0.0. No se pueden configurar automáticamente puertas de enlace
 predeterminadas, servidores DNS o servidores WINS, ya que la característica APIPA está concebida para redes formadas por un único segmento de red que no están conectadas a Internet.
Configuración dinámica
Mediante DHCP, la configuración de TCP/IP se realiza de forma dinámica y automática al iniciar el equipo. Para la configuración dinámica se requiere la configuración de un servidor DHCP. De forma predeterminada, los equipos que ejecutan sistemas operativos Windows son
clientes DHCP. Al configurar correctamente el servidor DHCP, los hosts TCP/IP puedenobtener la información de configuración de la dirección IP, máscara de subred, puerta de enlace predeterminada, servidor DNS, tipo de nodo NetBIOS y servidor WINS. Se recomienda la configuración dinámica (con DHCP) para redes TCP/IP medianas y grandes.
Configuración manual
Mediante la configuración manual de las propiedades del protocolo TCP/IP a través de las  propiedades de una conexión de red (en Conexiones de red), puede asignar una dirección IP, una máscara de subred, una puerta de enlace predeterminada, un servidor DNS y un servidor WINS. La configuración manual es necesaria en redes con varios segmentos de red cuando no hay servidores DHCP.
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 63/189

1.2.1 Configurar TCP/IP en Windows Server 2008
• 
Si la red admite una configuración TCP/IP dinámica que utilice el Protocolo de
• 
Si la red requiere una configuración TCP/IP manual. Algunas redes existentes no utilizan DHCP o requieren que se realice manualmente la configuración TCP/IP para cada equipo.
Por ejemplo, los equipos portátiles a veces se conectan a la red corporativa que proporciona
direcciones dinámicas. Otras veces, los portátiles requieren una configuración manual alternativa para utilizar en las redes domésticas.
• 
La dirección IP y la máscara de subred de cada adaptador de red instalado en el equipo.
•  La dirección IP de la puerta de enlace predeterminada local (enrutador IP). • 
El nombre del dominio DNS y las direcciones IP de los servidores DNS de la red. Para la implementación de Active Directory, de forma predeterminada, el sufijo DNS
• 
Las direcciones IP para los servidores WINS, en caso de que los servicios WINS estén disponibles en la red.
Numerar la red
Para redes TCP/IP privadas que no están conectadas directa ni indirectamente a Internet, se  puede utilizar cualquier intervalo de direcciones IP válidas de la clase A, B o C.
Para las redes TCP/IP privadas que están conectadas indirectamente a Internet mediante un traductor de direcciones de red (NAT, Network Address Translator) o una puerta de enlace de nivel de aplicación, como un servidor proxy, la Autoridad de números asignados de Internet (IANA, Internet Assigned Numbers Authority) recomienda utilizar las direcciones IP privadas que se muestran en la siguiente tabla.
Id. de red privada Máscara de subred Intervalo de direcciones IP
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 64/189

Id. de red privada Máscara de subred Intervalo de direcciones IP
10.0.0.0 255.0.0.0 10.0.0.1 - 10.255.255.254
172.16.0.0 255.240.0.0 172.16.0.1 - 172.31.255.254
192.168.0.0 255.255.0.0 192.168.0.1 - 192.168.255.254
IANA reserva los números de estos intervalos para uso privado en redes TCP/IP y no se utilizan en Internet.
 Normalmente, por motivos de seguridad, no se deben conectar más de unos pocos sistemas TCP/IP de la red directamente a Internet. Para los sistemas host de la red conectada a Internet, debe obtener el uso de direcciones IP registradas del proveedor de servicios Internet (ISP).
Puertas de enlace predeterminadas
Las puertas de enlace predeterminadas desempeñan una función importante en las redesTCP/IP. Proporcionan una ruta predeterminada que pueden utilizar los hosts TCP/IP para la comunicación con otros hosts en redes remotas.
La siguiente ilustración muestra la función que desempeñan dos puertas de enlace  predeterminadas (enrutadores IP) para dos redes: red 1 y red 2.
Para que el host A de la red 1 pueda comunicarse con el host B de la red 2, el host A comprueba primero en su tabla de enrutamiento si existe una ruta específica al host B. Si no hay una ruta específica al host B, el host A reenvía el tráfico TCP/IP del host B a su propia
 puerta de enlace predeterminada, Ruteador 1.
El mismo principio se aplica si el host B envía tráfico al host A. Sin una ruta específica al
host A, el host B reenvía el tráfico TCP/IP destinado al host A a su propia puerta de enlace predeterminada, el Ruteador 2.
Por qué se utilizan puertas de enlace
Las puertas de enlace predeterminadas son importantes para que el enrutamiento IP funcione correctamente. En la mayor parte de los casos, el enrutador que actúa como puerta de enlace
 predeterminada para hosts TCP/IP, ya sea un enrutador dedicado o un equipo que conecta dos
8/18/2019 Servidores W2008 Unidad 1
http://slidepdf.com/reader/full/servidores-w2008-unidad-1 65/189

o más segmentos de red, mantiene información sobre otras redes de la red más grande y cómo llegar a ellas.
Los hosts TCP/IP se basan en puertas de enlace predeterminadas para la mayor parte de sus necesidades de comunicación con hosts de segmentos de red remotos. De esta forma, los hosts individuales están liberados de la carga de tener que mantener amplia información
continuamente actualizada sobre segmentos de red IP remotos individuales. Sólo el enrutadorque actúa como la puerta de enlace predeterminada necesita mantener este nivel de información de enrutamiento para llegar a otros segmentos de red remotos del conjunto de redes más grande.
Si se produce un error en la puerta de enlace predeterminada, puede verse afectada la comunicación a partir del segmento de red local. Para evitar esto, puede utilizar el cuadro de diálogo Configuración avanzada de TCP/IP (en Conexiones de red) para especificar varias
 puertas de enlace predeterminadas para cada conexión. También puede utilizar el comando route para agregar manualmente rutas a la tabla de enrutamiento en hosts o redes con gran actividad.
Utilizar varias puertas de enlace
Si tiene varias interfaces y configura una puerta de enlace predeterminada para cada una de ellas, TCP/IP calcula automáticamente y de forma predeterminada