Vmware vSphere

download Vmware  vSphere

of 78

Transcript of Vmware vSphere

Captulo 1: Primeros pasos en la certificacin VMware vSphere VCP550

Por qu la virtualizacin es tan importante?En 1998, VMware descubri una tecnologa que fue considerada hasta entonces algo imposible de lograr, virtualizar la plataforma x86. Esta solucin fue una combinacin de traduccin binaria (binary translation) y ejecucin directa (direct execution) directamente en el procesador, lo que permiti que mltiples sistemas operativos Guest se pudiesen ejecutar a la vez en el mismo hardware fsico, totalmente aislados unos de otros y con una "sobrecarga" en la capa virtualizacin relativamente pequea.El ahorro que decenas de miles de empresas han obtenido con el despliegue de esta tecnologa, est impulsando, de una forma pronunciada y rpida, la adopcin de la tecnologa de virtualizacin desde el centro de datos hasta el escritorio.Resolver el problema de la proliferacin de servidores, la falta de espacio, el consumo de energa y la refrigeracin en las salas de servidores mediante la sustitucin de servidores de aplicaciones individuales por mquinas virtuales consolidadas en un nmero mucho menor de equipos fsicos, son slo algunos de los principales beneficios de la virtualizacin de servidores.Otros de los beneficios de la virtualizacin son: Mejor uso del hardware del servidor mediante el despliegue de nuevos servidores en mquinas virtuales, evitando aadir ms servidores fsicos infrautilizados al centro de datos. Reducir drsticamente el tiempo de aprovisionamiento de nuevos servidores en mquinas virtuales, pasando a minutos en lugar de das o semanas necesarias para aprovisionar un servidor fsico.Asimismo, como la capacidad de procesamiento en los servidores ha aumentado de manera constante en los ltimos aos, y no cabe duda que seguir aumentando, la virtualizacin ha demostrado ser una tecnologa muy potente para simplificar el despliegue de software y servicios, dotando al Centro de Datos de mucha ms agilidad, flexibilidad y, lo que quizs haya pasado desapercibido pero no por ello es menos importante, la reduccin significativa de los costes energticos y el impacto medio ambiental.Este libro pretende descubrirte todos los secretos en la instalacin, configuracin y gestin de VMware vSphere 5 y, de paso, prepararte para la certificacin de VMware VCP510.Cmo conseguir la certificacin VCP 510?Para obtener la titulacinVMware Certified Professionaldebes seguir tres pasos muy sencillos:1.Participar en un curso autorizado y oficial VMware para adquirir experiencia. Este curso es impartido por un instructor oficial VMware, el cual te enseara las mejores prcticas en la instalacin, configuracin y gestin de VMware vSphere 5.xLos cursos aceptados son:VMware vSphere 5.x: Install, Configure and Manage v5.xVMware vSphere 5: Whats New (Este curso es necesario solo para los candidatos que ya han pasado la certificacin VCP4)

2.Adquirir experiencia con los productos VMware. Aquellos profesionales que no han tenido experiencia previa con los productos VMware, les resultar ms difcil pasar el examen VCP 510.

3.Inscribirse y aprobar el examen oficial. Para inscribirse en el examen VCP 5 (VMware Certified Professional), has de darte de alta en VMware en la siguiente direccin:http://mylearn.vmware.com/mgrReg/plan.cfm?plan=45082&ui=www_certPara ver los cursos autorizados oficiales por VMware, donde se imparten los cursos oficiales, puedes visitar la siguiente direccin web:http://www.jmgvirtualconsulting.com/formacion

Algunas preguntas frecuentes sobre VMware VCPCul es la Hoja de Ruta para obtener la certificacin VCP en vSphere?

Hay cuatro caminos posibles para lograr la certificacin VCP5 en vSphere 5.1. Si eres nuevo en el mundo VMware: Asiste al curso oficial VMware vSphere 5: Install, Configure and Manage. Aprueba el examen VCP510 en vSphere 5.2. Si eres actualmente un VCP3 en VMware Infrastructure 3: Asiste al curso oficial VMware vSphere 5: Install, Configure and Manage o al curso oficial Whats New 5. Aprueba el examen VCP510 en vSphere 5. Esta opcin, solo estar disponible hasta el 29 de Febrero del 2012.3. Si eres actualmente un VCP4 en VMware ESX/ESXI 4.x: Aunque no hay ninguna limitacin imporante, es importante destacar que si estar limitado en cuanto al tiempo transcurrido desde que hiciste el curso de formacin hasta cuando quieras presentarte al examen VCP510 en vSphere 5. La ultima fecha que me ha dado VMware es febrero del ao 2012. Asiste al curso oficial VMware vSphere 5: Whats New 5.4. Si no eres VCP pero has asistido a uno de los cursos requeridos para la certificacin oficial VCP4 (VMware Install, Configure and Manage): Asiste al curso VMware vSphere 5: Whats New 5. Aprueba el examen VCP en vSphere 4.x. Aprueba el examen VCP en vSphere 5.Puedes ver los plazos y el Last minute en la siguiente URL:http://www.jmgvirtualconsulting.com/formacionCmo puedo saber si el curso es oficial VMware?Los cursos que no estn autorizados por VMware, no cumplen los requisitos para la certificacin VCP5 en vSphere 5. Asegrate de asistir a un curso oficial VMware confirmando que dicho curso aparece en la pgina web de VMware:http://mylearn.vmware.com/mgrreg/index.cfmRealmente necesito asistir al curso oficial para poder obtener la certificacin VCP5en vSphere 5?El curso oficial VMware es un requisito obligatorio para la certificacin.VMware no hace ninguna excepcin en este requisito.Cmo me registro para el examen de certificacin VCP510 en vSphere 5?El examen VMware Certified Professional es administrado por Pearson VUE, un centro autorizado externo. Pearson VUE tiene ms de 3.500 centros de exmenes autorizados en todo el mundo.Cuntas preguntas hay en el examen VCP510 de vSphere 5?En el examen hay 85 preguntas tipo test. Tienes 90 minutos para responder a todas las preguntas. En pases donde el ingls no es el primer idioma, los candidatos recibirn automticamente 30 minutos adicionales. Necesitas una puntuacin de 300 o ms para poder aprobar el examen, siendo 500 la puntuacin mxima.Qu ocurre si suspendo el examen?Podrs intentarlo de nuevo siempre que quieras, pero tendrs que esperar 7 das antes de intentarlo otra vez. Cada intento exige un nuevo pago para cubrir el coste del examen.Cmo puedo saber lo que abarca el examen VCP510?En la direccin web adjunta, podrs encontrar una gua oficial VMware (VCP5 Exam Blueprint) sobre la materia que se cubre en el examen. Usa esta gua como referencia para preparar el examen:http://mylearn.vmware.com/portals/certification/Hay alguna forma de practicar el examen antes de presentarse al examen oficial?VMware ha puesto a disposicin del pblico en general, una direccin web donde puedes practicar antes de presentarte al examen oficial:http://mylearn.vmware.com/mgrSurvey/assessLogin.cfm

Recuerda que las preguntas mostradas en este simulacro, solo son meramente orientativas. No obstante, te servirn para saber si ests preparado para presentarte al examen o, por el contrario, si necesitas estudiar un poco ms y retrasar la fecha del examen.Captulo 2:Instalacin vSphere 5.xEn esta primera seccin vers una introduccin a la virtualizacin y la instalacin de VMware vSphere ESXi 5.x, los mnimos y mximos tanto soportados como certificados por VMware vSphere ESXi 5/ vCenter Server 5.x, la nueva versin de vCenter Server Appliance para entornos Linux, as como los mnimos y mximos para las mquinas virtuales en vSphere 5.xCmo es la virtualizacin con VMware vSphere 5.x?

Los servidores y los desktops cada da son ms potentes y el software de virtualizacin de servidores ha demostrado, una vez ms, ser una tecnologa indispensable para simplificar el centro de datos y dotarlo de inteligencia propia.En un entorno fsico tradicional, el sistema operativo y el software asociado se estn ejecutando en un nico servidor fsico. Este modelo de una aplicacin por servidor puede llegar a ser, y de hecho lo es en muchos casos, inflexible e ineficiente. Esta relacin 1:1 precisamente es la que hace que servidores de muchos centros de datos que estn infrautilizados, alcanzado tan solo el uso de entre un 5 y un 10% de los recursos fsicos de dichos servidores.Asimismo, el aprovisionamiento de servidores fsicos en un centro de datos es un proceso costoso en cuanto al tiempo necesario que se dedica a aprovisionar un servidor fsico. En un entorno no virtualizado has de dedicar tiempo a comprar nuevo hardware, enrackar los servidores, instalar el sistema operativo y las aplicaciones.Con el software de virtualizacin de servidores podemos transformar hardware en software. De esta forma, podemos ejecutar diferentes sistemas operativos, como por ejemplo Windows, Linux, Solaris, incluso MS-DOS, simultneamente y en el mismo servidor fsico. As, cada contenedor, dotado de su sistema operativo Guest o invitado, es llamadovirtual machine(mquina virtual en ingls) o VM como acrnimo.Pero la virtualizacin de servidores,noes un software desimulacin o emulacin, como el software de training de Cisco que simula un router de Cisco para poder hacer prcticas, es un software deejecucin.Veamos ya algunas de las diferencias importantes de esta nueva versin de VMware vSphere con las versiones anteriores.Primero, y quizs uno de los cambios ms importantes en vSphere 5 es que la versin vSphere ESX ya no est disponible.Tambin, ahora con la nueva versin de ESXi 5, es posible instalar la imagen de un ESXi 5 directamente en la memoria del host fsico usando una nueva funcionalidad llamada vSphere Auto Deploy ESXi, de la cual hablaremos ms adelante en este libro.VMware vSphere 5 incluye una nueva versin para su sistema de archivos llamada VMFS-5 el cual, y a diferencia de las versiones anteriores, solo incluye un block size de 1MB a la hora de formatear el datastore.VMware vSphere Storage Appliance - de las siglas en ingls VSA - es otra de las nuevas funcionalidades incluidas en la esta versin. Aunque hablaremos de esta nueva funcionalidad ms adelante, recordarte que el VSA Manager ha de ser instalado en tu servidor de vCenter para que puedas configurar esta nueva herramienta.VMware vSphere ESXi Dump Collector te permitir recoger todos los log score dumps de tus servidores ESXi. Otra nueva funcionalidad en VMware vSphere 5.Para poder ver el video tutorial de instalacin de un servidor ESXi 5 y muchos ms videos tutoriales, entra en nuestra pgina web dedicada en exclusiva al contenido multimedia extra de este libro enhttp://www.josemariagonzalez.es/video-tutoriales/formacion-vsphere-5Alternativamente, tambin puedes ver videos tutoriales de instalacin y configuracin de VMware vSphere ESXi 5, as como manuales, artculos y posts interesantes para preparar el examen de certificacin oficial VCP510 en la pgina oficial del blog de virtualizacin y cloud computing en espaol en http://www.josemariagonzalez.es/Cmo es una mquina virtual en vSphere5?

Una mquina virtual en VMware vSphere 5, es bsicamente un conjunto de ficheros planos y binarios los cuales conforman la mquina virtual (MV) completa con su sistema operativo y aplicaciones incluidas. Los ficheros ms importantes que componen una mquina virtual son: el fichero de configuracin (.vmx), el fichero de disco virtual (.vmdk), el fichero BIOS de la mquina virtual (.nvram) y el fichero de log (.log).El tamao del fichero swap de la mquina virtual (.vswp) es igual a la cantidad de memoria RAM configurada en dicha mquina virtual. Recuerda que este fichero se genera cuando la mquina virtual se arranca y se borra cuando se apaga.Con la nueva versin vSphere ESXi 5, el mximo nmero de discos virtuales por host se ha aumentado a 2048 discos virtuales.El tamao mximo de un disco virtual que puedes configurar en una mquina virtual es de 2TB menos 512Bytes (espacio necesario del overhead del disco virtual).!En cuanto a la memoria RAM asignada a las mquinas virtuales, ahora es posible asignar hasta un 1TB de memoria RAM fsica de tu host, el cual es el tamao mximo que un host ESXi fsico puede tener configurado.Asimismo, es posible tener hasta un mximo de 512 mquinas virtuales por servidor ESXi. El nmero mximo de adaptadores SCSI para una mquina virtual es de cuatro por mquina virtual.A cada mquina virtual le puedes conectar un controlador IDE mximo al cual puedes conectar hasta 4 dispositivos IDE.En cuanto a dispositivos xHCI USB se refiere, es posible conectar hasta 20 controladores USB por mquina virtual. Sin embargo, solo es posible conectar un dispositivo USB 3.0 por mquina virtual. A fecha de publicacin de este libro, VMware vSphere ESXi 5 aun no soporta dispositivos USB 3.0 conectados directamente en el servidor.Por ltimo, puedes configurar hasta 128MB de memoria RAM destinada a la memoria de video por mquina virtual. Asimismo, el mximo nmero de vCPUs (virtual CPUs) por host ESXi es de 2048, siendo 25 el nmero mximo de vCPUs por core. El nmero mximo de vCPUs que podrs asignar a tus mquinas virtuales es de 32 vCPUs. Nota que para llegar a este nmero de vCPUs tambin el sistema operativo tiene que soportarlo.Si estas usando este libro para prepararte el examen oficial de certificacin VCP510, asegrate bien que conoces los mnimos y mximos de una mquina virtual y preprate para poder responder preguntas tipo como:Cuntos puertos serie, paralelo, CDROMs, floppies, NICs, puede llegar a tener una mquina virtual?Asimismo, recuerda que aunque una mquina virtual puede tener como nmero mximo 10 tarjetas virtuales, solo podrs conectar cuatro tarjetas mximo durante la creacin de tus mquinas virtuales con el wizard de creacin de mquinas virtuales de vCenter Server 5.VMware vSphere 5 permite crear mquinas virtuales usando dos wizards:TypicalyCustom. Si seleccionas el mtodoTypical, el wizard solo te pedir el nombre, DataStore para la mquina virtual, sistema operativo y el tamao del disco virtual, sin embargo no tendrs la opcin de configurar otras opciones como el nmero de vCPUs, la versin del hardware virtual, la cantidad de memoria y un largo etctera.Por consiguiente, es una mejor prctica seleccionar la opcinCustompara poder personalizar de una forma ms profunda la configuracin hardware de tus mquinas virtuales.

Aviso:Recuerda que una mquina virtual en vSphere 5 soporta hardware virtual versin 8 y que este hardware virtual no es compatible con versiones anteriores a vSphere 5. Por consiguiente, si quieres tener un entorno mixto, ESX/ESXi 4.x y vSphere ESXi 5, has de dejar el hardware virtual de tus mquinas virtuales con la versin 7 correspondiente a la versin 4 de VMware vSphere ESX/ESXi 4. Para terminar con un dato ms sobre las mquinas virtuales y su configuracin, el nmero mximo de virtual SCSI targets por mquina virtual es de 60.Para poder ver el video tutorial de instalacin de una mquina virtual en un servidor ESXi 5, entra en nuestra pgina web dedicada en exclusiva a los videos tutoriales de contenido multimedia de este libro enhttp://www.josemariagonzalez.es/video-tutoriales/formacion-vsphere-5Alternativamente, tambin puedes ver los videos tutoriales de instalacin y configuracin de VMware vSphere ESXi 5 para preparar el examen de certificacin oficial VCP510 en la pgina web oficial de YouTube en:http://www.youtube.com/blogvirtualizacionCul es la diferencia entre un software de virtualizacin basado en un hipervisor y la virtualizacin basada en host?

La virtualizacin basada en hipervisor (tambin denominada Bare-Metal), como por ejemplo vSphere ESXi, Microsoft HyperV o Citrix XenServer, est instalada en un servidor fsico sin la necesidad de que exista un sistema operativo (Windows o Linux) instalado previamente.No obstante, la virtualizacin basada en host, como por ejemplo VMware Server, VMware Workstation o VMware Fusion, necesita previamente un sistema operativo instalado, ya sea Microsoft Windows, Mac OS o Linux.Hay varias razones por las que un cliente elegira el software de virtualizacin basado en hipervisor, como por ejemplo vSphere ESXi, en lugar de un software de virtualizacin basado en host, como por ejemplo VMware Server.Primero, con el software de virtualizacin basado en hipervisor, es posible actualizar las mquinas virtuales que se albergan en los servidores fsicos sin ningn tipo de downtime.Segundo, es muy probable que la empresa ya est virtualizando varios servidores fsicos y quiera tener la opcin de tener una gestin centralizada.Por ltimo, un hipervisor baremetal siempre ofrece una mayor confiabilidad y rendimiento al no precisar de un sistema operativo Host lo cual se elimina un posible punto de fallo a nivel de hardware.

Aunque la virtualizacin basada en hipervisor ofrece un mayor rendimiento, es la virtualizacin basada en host la que ofrece una compatibilidad con el hardware mucho ms amplia, es decir, si puedes instalar Windows o Linux en tu servidor fsico entonces podrs instalar la solucin de virtualizacin basada en host.Por consiguiente, una de las mayores diferencias de la solucin de virtualizacin basada en hipervisor y la solucin de virtualizacin basada en host - aparte de las obvias ya mencionadas - , es que esta ltima tiende a tener una lista de hardware certificado mucha ms amplia.Sin embargo, la virtualizacin basada en hipervisor tiene un mayor rendimiento, mayor fiabilidad y estabilidad, mayor escalabilidad y mucha ms funcionalidad.Para ver ms informacin sobre los tres factores ms importantes a la hora de elegir un hipervisor para el software de virtualizacin entra en este enlace:http://www.jmgvirtualconsulting.com/A diferencia de las versiones anteriores a VMware vSphere ESXi, solo las variables, memoria reservada y memoria configurada (Reserved Memory y Configured Memory) afectan ahora al incremento o reduccin delmemory overhead, el cual es una penalizacin a nivel de la capa de memoria que todos tenemos que pagar por el simple hecho de virtualizar nuestro servidor fsico. Esta penalizacin se mide en megas de memoria RAM y son megas de memoria que dejamos de ver y de usar en nuestro servidor fsico.Como consecuencia de este impuesto revolucionario que exista por el simple hecho de virtualizar nuestro servidor, VMware vSphere ESXi 5 usa una nueva funcionalidad llamada VMX swap con la que es posible reducir elmemory overheadde tus mquinas virtuales.Bsicamente, con una nueva tecnologa llamada VMX swap, el tamao del memory overhead se crea en un fichero swap con lo que este espacio de memoria puede llegar a ser re-utilizado por el hipervisor. Esta tcnica posibilita un aumento en el ratio de consolidacin de VMware vSphere 5 con respecto a versiones anteriores de VMware.Cules son los nuevos prerrequisitos hardware en VMware vSphereESXi 5?A da de hoy, es posible instalar VMware vSphere ESXi 5 en cualquier tipo de servidor de nueva generacin. Asimismo, la lista de compatibilidad de hardware para VMware vSphere ESXi 5 ha aumentado considerablemente en esta ltima versin, debido principalmente, a que ESXI es la nica versin disponible en vSphere 5.Estos son los requerimientos de hardware mnimos para poder instalar VMware vSphere ESXi 5:Procesador:Solo CPUs de 64-bit x86, Intel o AMD, mximo160 CPUs (cores o hyperthreads).Memoria:2GBde RAM mnimo,1TBmximo.Red:Una o ms tarjetas Gigabit Ethernet. Las tarjetas Ethernet de 10Gb tambin estn soportadas. El nmero mximo de tarjetas de 1Gb Ethernet (tg3 de Broadcom) por servidor es de 32.Controladora de disco:Controladora SCSI, controladora FC (Fibre Channel), controladora iSCSI, controladora RAID interna, SAS y SATA.Almacenamiento:disco SCSI, LUN (Logical Unit Number) FC, disco iSCSI o RAID LUN conespacio disponible sin particionar.Es posible instalar VMware vSphere ESXi 5 en una LUN de la SAN, mtodo conocido con el nombre deBoot from SAN(BFS). BFS est soportado en Fibre Channel SAN, en iSCSI (iniciadores de software iSCSI y dependent hardware iSCSI) y en FCoE - de las siglas en ingls Fibre Channel over Ethernet - para aquellas cabinas de almacenamiento que estn incluidas en la matriz de compatibilidad. VMware vSphere ESXi 5 puede configurarse con un mximo de 256 LUNs de FC (Fibre Channel).Recuerda que los dos requerimientos necesarios para poder hacer boot from SAN son:1. La BIOS de la HBA (Host Bus Adapter) debe estar habilitada.2. Debes seleccionar la HBA con el nmero de slot PCI menor.Aviso:Recuerda que si haces una actualizacin de ESX/ESXi 4.1 a VMware vSphere ESXi 5, aquellos puertos no conocidos - no listados en la pestaa security profile - que se hayan abierto con el comando de consola esxcfg-firewall en tu servidor ESX/ESXi 4.x, no permanecern abiertos despus del upgrade.Asimismo, VMware vSphere ESXi 5 soporta un mximo de 8 dispositivos PCI/PCIe en modo VMDirectPath passtrough. Sin embargo, una mquina virtual no puede tener configurados ms de dos dispositivos PCIx/PCIe configurados como VMDirectPath.Si usas iniciadores de software iSCSI para hacer BFS y tu administrador deshabilita este iniciador de software iSCSI, el servidor ESXi 5 volver habilitar dicho iniciador la prxima vez que se reinicie el servidor para poder hacer BFS.Algunos aspectos importantes que deberas saber sobre la diferencias y similitudes entre VMware vSphereESX yESXi 5En VMware ESX y ESXi hay ms similitudes que diferencias, aunque quiz, el beneficio ms importante de ESXi sobre ESX es que ESXi aumenta la seguridad y la fiabilidad de nuestro hipervisor.VMware ESXi 5 tiene mucho menos cdigo (76MB de footprint) que parchear y, por lo tanto, tiene una superficie de ataque mucho menor. La versin ESX ha desaparecido como tal con el lanzamiento de la versin de VMware vSphere 5.La versin VMware vSphere ESXi 5 como la versin ESX comparten el mismo VMkernel y VMM - de las siglas en ingles Virtual Machine Manager -, aunque hay algunas connotaciones muy importantes a destacar:1.Extensiones VMkernel:Mientras que en la versin clsica de VMware ESX podas instalar agentes y drivers de empresas de terceras partes, en ESXi solo se permite instalar extensiones en el VMkernel que hayan sido previamente firmados digitalmente por VMware. Esta restriccin ayuda mucho a asegurar el entorno y mantener el cdigo seguro en el VMkernel.2.Muchos de los agentesydeamonsque se ejecutaban en el Service Console (COS) en la versin clsica del ESX, han sido convertidos y embebidos para que se ejecuten directamente en el VMkernel del ESXi.3.La imagen del sistema en ESXi- system image - es una imagen bootable que es cargada directamente en memoria fsica. El propio installer usa esa misma imagen de sistema para copiar los ficheros en un disco local para futuros arranques.Debido a que la imagen del sistema es cargada en memoria, la versin ESXi no necesita obligatoriamente de un disco local cuando este se est ejecutando. Esto significa que el disco local podra fallar pero, sin embargo, nuestro VMkernel continuara ejecutndose.4.La particin scratch. Es una particin de 4GB virtual y de tipo FAT (VFAT) la cual es creada por defecto en el primer disco local del servidor ESXi, si tu servidor tiene discos locales, claro. Si el servidor no tiene ningn disco local, esta particin no existir pero se rediccionara el directorio scratch a una particin de tipo ramdisk llamada /tmp. Esto significa que el contenido de esta particin scratch no sobrevivir a un reinicio del servidor ESXi.Por consiguiente, el servidor ESXi puede necesitar hasta 4GB de memoria RAM para almacenar esta particin scratch.5. Y por ltimo, pero no por ello menos importante, tenemos la particinbootbank. Esta particin contiene la imagen del sistema sobre un sistema de archivos. Si hay un disco local al cual ESXi pueda escribir, este almacena dos copias del bootbank. Pero ojo, solo una es montada en la estructura del sistema de archivos del ESXi en el directorio /bootbank. La segunda copia se usa nicamente durante actualizaciones para mantener una segunda copia como backup en caso de problemas durante actualizaciones del sistema.Por otro lado, en VMware vSphere ESXi 5 es posible hacer una instalacin de la imagen directamente en la memoria del servidor fsico usando una nueva funcionalidad llamadavSphere Auto Deploy ESXi Installation Option.Con VMware vSphere Auto Deploy podrs acceder al fichero de instalacin desatendido (answer file) via CIFS, SFTP o HTTP.VMware vSphere ESXi 5 soporta la designacin de capacidad de disco dinmicamente mediante una funcionalidad llamada vStorage Thin Provisioning.Ahora, con VMware vSphere ESXi 5 es posible hacer una migracin en caliente con Storage vMotion de una mquina virtual que tiene snapshots.VMFS-5 soporta un mximo de 9.000 discos virtuales por datastore. Solo existe una nica opcin de tamao de bloque para un datastore formateado con la versin 5 de VMFS. Este block size es nicamente de 1MB y te permite crear discos virtuales con un tamao de hasta 2Gb.Ahora en VMware vSphere ESXi 5 y VMFS-5 es posible tener hasta un mximo de 4 ficheros swap por mquina virtual.Tambin ahora es posible con VMware vSphere ESXi 5 hacer un unmount del datastore siempre y cuando se cumplan los tres requisitos siguientes:1. El datastore no puede contener ninguna mquina virtual.2. El datastore no puede ser usado por vSphere HA heartbeat.3. El datatore no puede pertenecer a un datastore clster.VMware vSphere ESXi 5 soporta ahora hasta 3.000 mquinas virtuales por clster HA/DRS con independencia del nmero de servidores ESXi que hayas configurado en tu clster.Por ltimo, recuerda que VMFS-5 solo soporta 256 volmenes o datastores VMFS por servidor ESXi.Aviso:Cuando actualizas VMFS-3 a la versin VMFS-5, la configuracin del block size de tu datastore VMFS-3 es heredara, es decir, si tu datastore VMFS-3 fue configurado con un block size de 4MB, al actualizar a la versin VMFS-5 el block size seguir siendo de 4MB. Nota que el block size de un datastore VMFS-5 no actualizado no puede ser distinto de 1MB.Diferentes tipos de instalacin en vSphere ESXi 5

VMware vSphere ESXi 5 solo es posible instalarlo en modo texto, a diferencia de VMware ESX donde era posible instalarlo tambin en modo grfico.Una nueva funcionalidad en VMware vSphere ESXi 5 llamadaImage Builderte permitir hacer instalaciones personalizadas de tu ESXi as como asociar actualizaciones del binario del ESXi a dicha personalizacin. Hablaremos del Image Builder ms adelante en este libro. Solo apuntar que el formato de los paquetes que usa VMware vSphere ESXi Image Builder se llaman VIB - de las siglas en ingls vSphere Installation Bundle.Si usas la nueva funcionalidad llamadaVMware Auto Deploy,recuerda que los logs de tu servidor ESXi sern almacenados en memoria con lo que al reinicializar tu servidor perders estos logs por defecto. Para definir profiles de imgenes para tus servidores ESXi con Auto Deploy tendrs que usar cmdlet incluidos en el vSphere Power CLI image builder.Es posible tambin actualizar servidores ESXi con la utilidad Enterprise llamada VMware Update Manager (VUM), de la que hablaremos tambin en este libro.Una mejora practica antes de actualizar un servidor ESXi, es guardar la configuracin del servidor que vas actualizar con el siguiente comando de vCLI:vicfg-cfgbackup -sAviso: Con VMware vSphere ESXi 5, el nmero total de caminos de FC (Fiber Channel) por servidor se han aumentado hasta los 1.204. En VMware vSphere ESXi 5 el mximo nmero de servidores conectados a volmenes VMFS es de 64 hosts por volumen VMFS.Asimismo, el nmero mximo de datastores conectados a un Cluster HA/DRS es de 32.Tampoco es posible actualizar varios servidores ESXi en un clster simultneamente, es decir, solo est permitido actualizar un servidor ESXi a la vez dentro de tu clster.Datos importantes sobre el nuevo installer en vSphere 5

Durante la instalacin de vSphere ESXi 5, elinstallerde VMware, escanea no solo los discos locales conectados al servidor fsico ESXi, sino que tambin har un escaneo de los discos de tu SAN de FC y los mostrara si este tiene acceso a ellos.Por consiguiente, y para evitar la instalacin del binario de ESXi en una de tus LUNs de la SAN FC, recuerda esta Best Practices de VMware para evitar la sobre escritura de una LUN: Establece o solicita al administrador SAN de tu empresa un LUN Masking o mejor an, si vas a instalar el binario en discos locales, desconecta los cables de la SAN de tu servidor ESXi. Adems, est mejor prctica reduce el tiempo que necesita elinstallerde VMware en buscar discos conectados al sistema.Si estas instalando un servidor ESXi en un disco que ya contiene una versin previa a la versin vSphere 5, elinstallerte da la opcin de actualizar esa versin.Cuando configuras una cabina SAN de FC con vSphere, asegrate de seguir las mejores recomendaciones:1.Cada LUN debera contener solo un DataStore VMFS.2.Cada LUN debera ser presentada a todos los servidores ESXi con el mismo LUN ID.Hay cuatro opciones o mtodos para instalar la nueva versin de VMware vSphere ESXi 5: Usando vSphere Auto Deploy Mediante una instalacin via script Actualizando un servidor ya existente con VUM Haciendo una instalacin interactiva como se muestra en la imagen anterior.Esta ltima opcin es el mtodo de instalacin recomendado cuando has de instalar un nmero pequeo de servidores VMware vSphere ESXi 5.VMware vSphere 5 ha dejado de soportar mquinas virtuales de 32bit y por consiguiente VMM de 32bits. Solo Virtual Machine Monitors de 64 bits pueden ejecutar sistemas operativos de 32bits. Por consiguiente, el uso exclusivo de un VMM de 64bits en vSphere 5 requiere instrucciones especficas a nivel de CPU llamadas LAHF y SAHF las cuales no se encuentran en arquitecturas de 32bit ms antiguas. LAHF y SAHF solo estn soportados en vSphere 5.Aviso:Una vez instalado, un servidor VMware vSphere ESXi 5 puede tener hasta256 LUNs FC(Fiber Channel)por servidor. Asimismo, el nmero mximo del ID en FC es de 255 pues los IDs de FC empiezan por el nmero 0 y no por el nmero 1.Sin embargo, el nmero mximo de caminos iSCSI que un servidor ESXi pues ver es de 1.024.Una instalacin inicial de vSphere ESXi usa el formato GPT - de las siglas en inglsGUIDParticionTable en lugar del formato MBR - de las siglas en inglesMasterBootRecord - lo cual permite instalar ESXi 5 en discos con un tamao superior a 2TB. No obstante, si actualizas de versin VMware ESX/ESXi 4.x a ESXi 5 no se usara el formato GPT, sino que se mantendr el formato MBR.Aspectos importantes sobre la configuracin y la seguridad de vSphere ESXi5

Ahora VMware vSphere ESXi 5 incluye dos nuevas funcionalidades para aumentar la seguridad del VMkernel:1. Memory Hardening: El kernel del ESXi, aplicacionesuser-modey ejecutables como drivers y libreras estn localizadas en zonas de memoria aleatorias para evitar que software del tipotroyanosaverigen de una forma sencilla la localizacin de estas zonas de memoria.2. Kernel Module Integrity:Los mdulos, drives y aplicaciones de ESXi son firmados digitalmente para asegurar la integridad de estos una vez que el VMkernel los carga en memoria.Asimismo, a diferencia de las versiones VMware ESX 4.x, en VMware vSphere ESXi 5 es posible hacer boot de tu servidor ESXi desde un disco USB externo.Tambin, ahora es posible instalar tus servidores ESXi con la opcin de VMware Auto Deploy, sobre todo cuando tienes un nmero de host importante que instalar. De esta forma, acelerars la fase de instalacin del binario de ESXi y el despliegue de tus mquinas virtuales.Si haces una actualizacin de la versin ESX 4.x a la versin ESXi 5 el portgroup tipoService Console(solo disponible en versiones ESX) ser borrado ya que en los servidores ESXi no existe un Service Console. Asimismo, el portgroup de gestin en ESXi es llamadoManagement Port.Recuerda antes de actualizar un servidor ESXi hacer una copia de seguridad de su configuracin con el comando vicfg-cfgbackup desde el vCli.Desde el punto de vista de almacenamiento compartido SAN iSCSC, el nmero mximo de LUNs iSCSI que puedes conectar a un servidor ESXi es de 256. Otro de los lmites que han cambiado en esta nueva versin de VMware vSphere ESXi 5 con respecto a las versiones anteriores, es que ahora es posible tener arrancadas hasta 2.048 mquinas virtuales por volumen VMFS.Tambin, ahora es posible activar - y est soportado - el modo soporte (TSM - de las siglas en ingls Tech Support Mode) de modo que podrs entrar va SSH a tu servidor ESXi. Puedes activar el modo TSM desde la DCUI (de las siglas en ingls Direct Console User Interface) o con el vSphere Client a travs del panelSecurity Profilelocalizado dentro de la pestaa deConfiguration.Una vez entres en la consola de tu servidor ESXi, via comando podrs ver los logs de tu sistema, configurar las propiedades de los servicios de DNS, NTP, arrancar mquinas virtuales, apagar servidores ESXi y un largo etctera. Sin embargo, una de las pocas tareas que no podrs hacer desde consola es la de poner tu host ESXi en modo mantenimiento.Para poder ver una gua de referencia de todos los comandos disponibles por consola en la versin ESXi 5.0, te recomiendo que veas el episodio nmero 31 de nuestro canal de televisin web sobre la virtualizacin y el cloud computing en espaol en la siguiente direccin: http://www.virtualizacion.tvAsimismo, con el fin de mejorar la seguridad del servidor ESXi, VMware ha aadido un firewall embebido en el VMkernel. A diferencia de las versiones anteriores, este firewall no est basado en IPtables de Linux.Aviso:El mximo nmero de tarjetas HBA de FC soportadas por un servidor ESXi es de ocho. Tambin, el nmero mximo de CPUs lgicas por servidor ESXi 5 ha aumentado a las 160 por host.Si an tienes servidores ESX en tu entorno virtual y necesitas aplicar parches en el Service Console del ESX, debes de asegrate de aplicar dichos parches solo y nicamente cuando VMware haya hecho pblico las actualizaciones y siempre que sea sugerido por personal autorizado de VMware o por el equipo experto de VMware llamadoVMware Security Advisories.Para poder recibir alertas de seguridad sobre vulnerabilidades del software de VMware, puedes suscribirte en esta direccin: http://www.vmware.com/security.Tipos de almacenamiento soportados en VMware vSphereESXi versus funcionalidad

En la tabla adjunta, se muestran los cinco tipos de almacenamiento soportados en VMware vSphere ESXi 5, as como las diferentes funcionalidades soportadas por cada tipo de almacenamiento.Con relacin a la conectividad iSCSI y su iniciador de software iSCSI, el mximo nmero de iSCSI targets es de 265. Asimismo, no es posible crear ms de unNIC Teamingcon el iniciador de software iSCSI con ms de 8 vmnics (uplinks o tarjetas de red fsicas disponibles en el servidor ESXi). Solo es posible tener un nmero mximo de ocho caminos por LUN para los volmenes VMFS conectados via software o hardware iSCSI.En cuanto al tamao mximo de un volumen VMFS para la versin 3 (VMFS-3) es de 2TB menos 512Bytes de espacio con un block size de 8MB. Sin embargo, en VMFS versin 5 (VMFS-5) el tamao del block size es de tan solo 1MB, aunque es posible crear ficheros .vmdk con un tamao mximo de 2TB. Recuerda que en VMFS versin 3 y con un block size de 1MB, el tamao de disco de la mquina virtual (.vmdk) no podr superar los 256GB de espacio en disco.Asimismo, el tamao mximo para un volumen RDM (de las siglas en ingls Raw Device Mapping) en VMFS-5 es de 64TB, siempre y cuando uses la funcionalidad de extenders a nivel VMFS, de la cual hablaremos ms adelante en este libro, y el modo de compatibilidad de este RDM sea fsico. Sin embargo, para un volumen RDM VFMS-5 en modo de compatibilidad virtual, el tamao mximo es de 2TB menos 512 bytes.VMware vSphere ESXi 5 usa el protocolo NFS versin 3 para comunicarse con cabinas de tipo NAS. Nota que aunque NFS tambin puede usar la versin 4, esta no est soportada por VMware. En la versin VMware vSphere ESXi 5, ahora es posible montar hasta 256 volmenes NFS por host.Con relacin a los ficheros swaps de las mquinas virtuales, el tamao mximo que puede alcanzar este tipo de ficheros es de 1TB por mquina virtual, siempre y cuando, configures tu mquina virtual con 1TB de memoria RAM.Puedes ver ms informacin sobre la configuracin del block size en VMFS-5 en nuestro canal oficial de YouTube:VMware vSphere 5.0 en entornos SAN iSCSEn cuanto al nmero mximo de targets que un servidor host puede ver con un adaptador Broadcom 10GB iSCSI es de 128 targets. El nmero mximo de tarjetas 1GB Ethernet Broadcom (bnx2) que un servidor host ESXi puede tener es de 16.Aviso:El nmero mximo de caminos por LUN de FC es de 32. Y si te pica la curiosidad por saber cul es el nmero mximo de ficheros que puedes tener en un volumen VMFS-5, es de 130.690 ficheros, aunque me temo que muy probablemente no alcances nunca ese lmiteJ. En VMFS-3 el mximo nmero de ficheros era de 30.720 ficheros.Diagnosticando un problema en vSphere 5Para poder diagnosticar un problema con vSphere ESXi 5, necesitas exportar los logs.Desde el vSphere Client, seleccionaFile > Export > Export System Logs.

Ten en cuenta el tamao requerido para almacenar estos logs, sobre todo si cambias el nivel de lo que quieres que se logee en tu sistemas. Para ponrtelo en contexto, los logs pueden llegar a crecer hasta 9GB en una instalacin de 10 ESXi y aproximadamente 100 mquinas virtuales con respecto al nivel estndar de logeo.Tambin, y si no tienes configurado un servidor de vCenter, puedes conectarte directamente a tu host ESXi y exportar los logs seleccionado la opcin,File > Export.

Ayer aprendimos lo bsico de la certificacin oficial VMware y vimos los dos primeros captulos.

Hoy veremos los dos prximos captulos, la red y el almacenamiento:

Hasta maana,Jose Maria GonzalezCEO and Founder dewww.jmgvirtualconsulting.com

Captulo 3: Red en vSphere 5.La funcionalidad de red en una infraestructura virtual es de suma importancia. Permite que las mquinas virtuales en un servidor VMware vSphere ESXi 5 puedan comunicarse con otras mquinas fsicas o mquinas virtuales en otros servidores VMware vSphere, mediante la configuracin de losvirtual switches. Tambin te permite comunicarte con elManagement Networkde los servidores VMware vSphere 5 para poder gestionarlos y con el VMkernel para poder configurar vMotion y cabinas de almacenamiento basadas en protocolos NFS o iSCSI.En este captulo te ensear a entender el propsito general de unvirtual switchy undistributed virtual switch, cmo configurarlos y conectaruplink ports,as como a entender las diferentes configuraciones y polticas de seguridad que se pueden definir a nivel devirtual switch,port groupo ambas.Diferentes tipos deport groupsen vSphereESXi 5

Unvirtual switchestndar (VSS) tiene tres funciones principales:1. Comunicar con mquinas virtuales dentro de un mismo servidor VMware ESXi o con otras mquinas fsicas o mquinas virtuales en otro servidor VMware ESXi, para lo que utilizamos unVirtual Machine Port Group.2.Comunicar con nuestro servidor ESXi via SSH (puerto 22) o vSphere Client, para lo que utilizamos un Management NetworkPort.3.Comunicar con el VMkernel y puertos IP de tipo VMotion, NFS e iSCSI, para lo que utilizamos unVMkernel Port.A diferencia de los switches fsicos, no es posible conectar dosvirtual switchjuntos mediante un ISL (InterSwitch Link Protocol), ni puedes mapear la misma tarjeta de red a ms de unvirtual switcha la vez. Recuerda que s es posible configurar un virtual switch sin ninguna tarjeta de red, lo que es denominado como internal switch only.Cuando creas unNIC teaming(una o ms tarjetas de red mapeadas a un virtual switch para incrementar el ancho de banda o dotar de alta disponibilidad a la capa de red), todas las tarjetas de red dentro delteamingpasan a seractivas por defecto. Para crearvirtual switchespuedes usar elvSphere Cliento, desde la consola del servidor ESXi, puedes usar el comando:esxcfg-vswitch -a"nombre vswitch".Si hay dos mquinas virtuales conectadas a dos virtual switches diferentes, el trfico entre dichas mquinas fluir a travs de las tarjetas fsicas mapeadas a los switches virtuales y entre servidores ESXi. Por el contrario, si varias mquinas virtuales estn conectadas al mismo VSS del mismo servidor ESXi, los paquetes no salen por la red, sino que son transmitidos internamente en el servidor ESXi por el VMkernel.Para mejorar el rendimiento de red de las mquinas virtuales es posible mapear ms de una tarjeta fsica (uplink) al VSS.Aviso:Tambin es posible configurar switches distribuidos virtuales (Virtual Distributed Switch). La configuracin de los switches distribuidos (VDS) es almacenada en el servidor vCenter a diferencia de los switches estndar, los cuales almacenan la configuracin en los servidores ESXi. Un Virtual Distributed Switch no es ms que un VSS que es compartido entre mltiples servidores VMware vSphere ESXi. Los VDS solo estn incluidos enla versin Enterprise Plus.Port groups y elvirtual switchestndar

En vSphere ESXi 5, el nmero mximo de puertos soportados para un VSS es de4088. A este vSwitch, puedes conectarninguno, uno o ms de un uplink.Recuerda que es posible cambiar el nmero de puertos en los VSS siempre que sea necesario. Sin embargo, dicho cambiorequiere un rebootdel servidor ESXi para que los cambios tengan efecto.Losport groupsde tipoManagement Network, Virtual Machine y VMkernelpueden todos ser configurados en un nico VSS. Asimismo, slo un VLAN ID puede ser especificado porport grouppero mltiplesport groupspueden especificar el mismo VLAN ID.Es posible tambin garantizar un mnimo de servido o ancho de banda a todas y cada una de tus mquinas virtuales. Para ello, puedes usar una tcnica de gestin de recursos llamadaTraffic shapping, a nivel deport group,donde est incluida la mquina virtual para aliviar problemas de congestin de red o garantizar un ancho de banda determinado. Esta funcionalidad para los VSS te permite limitar el ancho de banda desde la mquina virtual hacia afuera (outbound) pero no desde fuera hacia la mquina virtual (inbound).Si precisas tener que limitar el ancho de banda desde fuera hacia dentro y desde dentro hacia afuera (outbound y inbound) tendrs que usar los switches distribuidos (VDS). Recuerda que este switch distribuido se crea en el vCenter Server, con lo que para usar VDS, aparte, debes de contar con una licencia de vCenter.Por defecto, y para los VSS, cuando creas unvirtual switchpor defecto es creado con 120 puertos. Sin embargo, si utilizas la lnea de comando y ejecutas el comandoesxcfg-vswitch lvers que en realidad son 128 puertos.Estos ocho puertos son puertos extra que usa el VMkernel internamente y que no podemos usar desde la GUI. Estos ocho puertos extras solo pueden verse desde la lnea de comando en ESXi 5:

Aviso:Es posible que tengas la necesidad de limitar el ancho de banda en los diferentes tipos de conexiones descritas anteriormente, y sobre todo, que tengas que aliviar problemas de cuellos de botella en la capa de red. En captulos posteriores cubriremos algunas tcnicas para aliviar cuellos de botella en los diferentes componentes de vSphere 5.Diferentes tipos devirtual switchen vSphere 5

Cadavirtual switch, es una representacin lgica va software de un switch fsico de capa dos. Los tres tipos devirtual switchque puedes crear en un servidor ESXi 5 son los siguientes:1. Internal switch only. Este switch es usado nicamente para conectar, va red, las mquinas virtuales instaladas en el mismo servidor VMware ESXi, las cuales no necesitan conexin con el mundo exterior.2. Virtual switch con un adaptador de red. Este switch es usado para conectar, va red, mquinas virtuales,Management Network (gestin)y puertosVMkernelcon el mundo exterior, o dicho de otro modo, con otros servidores y mquinas virtuales de nuestro entorno virtual.3. Virtual switch con ms de un adaptador de red. Este switch es usado para conectar, va red, mquinas virtuales,Management Networky puertosVMkernelcon el mundo exterior con una funcionalidad adicional, como es el balanceo de carga y redundancia a fallos en los componentes de red.Las polticas de seguridad y detraffic shapingson configuradas a nivel deport groupyvSwitch. Una configuracin incorrecta deltraffic shapingafectara no slo al trfico de las mquinas virtuales sino tambin al trfico en general.En vSphere ESXi 5, una tarjeta mapeada a un switch virtual puede ser configurada para trasmitir y recibir tramas Jumbo Frame. El MTU (Maximum Transmision Unit) de un Jumbo Frame es de 9000. VMware ESXi 5 tambin soporta Jumbo Frames, tanto en los VSS como en los VDS.Ahora, tambin es posible activar desde la GUI de los VSS el uso de los mismos. La configuracin de Jumbo Frames es considerada una mejor prctica para las redes de tipo iSCSI, vMotion y Fault Tolerance.Aviso:Los tres tipos devirtual switchpueden soportar hasta un total de4088 puertos por switch virtual estndar.Para los tres tipos devirtual switch,no existen colisiones de red en el trfico interno. Asimismo la direccin MAC de los adaptadores de red conectados a losvirtual switchesno ser usada en ningn momento de forma interna.Las polticas de balanceo de carga en un VSS en vSphere 5

En VMware vSphere 5, el adaptador NIC fsico conectado al primer puerto deManagement Networkes denominadovmk0.El primer puerto de gestin definido en nuestro servidor VMware ESXi 5 es denominado "Management Network".La configuracin de las polticas de balanceo de carga en unNIC teamingy para un VSS son tres: Route based on the originating virtual port ID Route based on source destination MAC hash Y Route based on IP hashSin embargo, las polticas de balanceo de carga para unNIC teamingen un VDS incluye otra poltica adicional llamadaRoute Based on physical NIC loadcomo veremos ms adelante.

Aviso:En una configuracin deNIC teaminga nivel de VSS, es muy importante activar la opcinNotify Switches. Cuando configuras una poltica deNIC teamingen un VSS y seleccionas la opcinNotify Switches, el switch fsico ser alertado cuando la localizacin de una tarjeta virtual cambia de puerto. Esto ocurre, por ejemplo, cuando se hace una migracin de una mquina virtual en caliente con vMotion.Propiedades de los adaptadores de red en VMware ESXi 5

Para ver las propiedades de tus tarjetas de red, selecciona el servidor ESXi en el panel inventario, luego en la pestaaConfiguration, selecciona el enlaceNetworkingen la parteHardwarey luegoPropertiesen elswitch virtualque tiene conectado el adaptador de red que quieres modificar.Existe nueva tecnologa en vSphere ESXi 5 que puedes usar para incrementar el throughput de tus mquinas virtuales es elSplit RXcomo veremos ms adelante.Si estas usando adaptadores de red Gigabit Ethernet, es considerada una mejor prctica dejar la velocidad y la configuracin de dplex enauto negotiateya que el auto negotiate es parte del estndar en redes Gigabit Ethernet.Aviso:Para configurarNetQueue,y mejorar as el rendimiento de red de las mquinas virtuales en un servidor ESXi, es necesario habilitarlo en el driver de la tarjeta fsica y en las opciones avanzadas del VMkernel. Si el rendimiento de la consola remota para una mquina virtual es lento, verifica la configuracin (speed, duplex) de la tarjeta fsica asignada alport groupdel switch virtual.Los diferentes tipos de polticas de seguridad en vSphere

En losVSS,hay tres tipos diferentes de polticas de seguridad: Traffic shaping Policy, NIC Teaming Policy y Security Policy. En unVirtual Distributed Switch, aparte de estas tres polticas de seguridad, existe otra nueva,Port Blocking Policy.Las polticas pueden ser definidas a nivel devirtual switch,las cuales se convertiran tambin en las polticas por defecto para todos losport groupscreados en dichovirtual switch, o a nivel deport group.Las polticas definidas a nivel deport group,siempre sobrescribenlas polticas definidas a nivel devirtual switch. Un vSwitch o vSwitchport groupen "Promiscuous Mode" permitir que una mquina virtual pueda "escuchar" todo el trfico contenido en ese VSS y no solo el trfico destinado para esta mquina virtual en concreto.Una mejor practica en la capa de red con vSphere 5 es que antes de crear los diferentes tipos de switches virtuales, protocolos de balanceo de carga, VLANs, port groups y NIC teaming, hables con el administrador de tu red fsica sobre lo que necesitas a nivel de red virtual.Es muy corriente implementar IP hash a nivel de red virtual en entonos de produccin relativamente importantes para luego darse cuenta que no est funcionando correctamente porque no se ha activado en el switch fsico.La configuracin predeterminada en vSphere 5, dentro de la poltica de seguridadSecurity

La configuracin predeterminada para la poltica de seguridadSecurityy para todos los VSS es la siguiente:Promiscuous Mode:Reject- Significa que elvirtual switchno redireccionar ninguna trama a otros puertos del switch (modo switch). SiPromiscuous Modees cambiado aAccept,el switch se comportara como un HUB y redireccionar todas las tramas entrantes y salientes a todos los puertos delvirtual switch.Esta configuracin suele ser til cuando "pinchamos" un sistema IDS (Intrusion Detection System) o sniffer en unvirtual switchpara analizar todas las tramas de dicho switch.MAC Address Changes: Accept- Significa que elvirtual switchno hara undropde la tramaentrantesi la direccin MAC de sta no coincide con la direccin MAC de la mquina virtual conectada en eseport group. Por defecto, esta opcin se suele cambiar aRejectpara evitar ataques tipoMAC spoofing.Forged Transmit: Accept- Significa que elvirtual switchno hara undropde la tramasalientesi la direccin MAC de sta no coincide con la direccin MAC de la mquina virtual guardada en el fichero de configuracin (.vmx) de dicha mquina virtual. Por defecto, esta opcin se suele cambiar aRejectpara evitar ataques tipoMAC flooding y MAC spoofing.En resumen,Forged Transmitpermite a una mquina virtual transmitir paquetes (outbound) que contienen una direccin MAC diferente a la que se ha definido en esa mquina virtual.Recuerda que las polticas de seguridad de red a nivel de VSS yport groupsonReject(Promiscuous Mode),Accept(MAC address Changes) yAccept(Forget Transmit).Aviso:No cambies la configuracin por defecto deMAC Address ChangesniForged Transmitssi tienes configurado en elvirtual switchun clster MicrosoftNLB(Network Load Balancing) en modounicast.Para ver ms informacin sobre la configuracin determinada con Microsoft NLB, ver elKB nmero 1556en la pgina de VMware:http://kb.vmware.comAsimismo, cuando tengas que hacer una conversin P2V - de las siglas en ingls Physical to Virtual - con el software de conversiones de VMware llamado vConverter, asegrate de configurarAllow Mac Adress Changesen Accept, si el servidor fsico que estas intentando convertir tiene software instalado que fue licenciado usando la direccin MAC de su tarjeta fsica.La configuracin predeterminada, dentro de la poltica de seguridad deTraffic Shaping

Esta poltica de seguridad detraffic shaping, para elvswitchyport group, est desactivada por defecto. Con la opcinnetwork traffic shapingpuedes limitar eloutbound peak bandwidthy eloutbound average bandwidth.Esta poltica detraffic shapingsolo se aplica a las conexiones de dentro hacia fuera (outbound), es decir, desde dentro delvirtual switchhacia fuera delvirtual switch.No es posible definir una poltica detraffic shapingdesde fuera delvirtual switchhacia dentro (inbound) en un VSS.Una primera alternativa para limitar el trfico de tipo inbound es la de usar algn sistema externo de balanceo de carga o activar la opcin derate-limitingen tu router fsico.La segunda alternativa la encontramos en los VDS. En los Virtual Distributed Switches es posible definir elTraffic Shapingen ambas direcciones (Ingress -inboundy Egress -outbound).

En vSphere 5 hay dos formas de migrar una mquina virtual desde un vSwitch estndar a un Virtual Distributed Switch.La primera opcin es seleccionando undvPort groupdesde las propiedades de la configuracin de red de la mquina virtual, y la segunda, seleccionando la mquina virtual desde la lista de mquinas virtuales cuando usas la opcin "Migrate Virtual Machine Networking".

Una nueva funcionalidad en los VDS de la versin ESXi 5 es la de habilitar la opcin deNetFlow. Esta opcin te permitir mandar trfico de red desde un VDS a una mquina virtual, la cual si tiene un software de anlisis de red podrs hacer un estudio muy exhaustivo de tu red de datos y del tipo de trfico enviado por tu red.

Para terminar con las diferencias entre un VSS y un VDS, estas son las tres funcionalidades ms importantes que estn disponibles en los VDS y no en VSS: NetFlow Monitoring Network I/O Control Egress Traffic ShappingCuando creas un dvPort group, el port binding dinmico (Dynamic Binding) se asegura de asignar un puerto a la mquina virtual la primera vez que es encendida.

Recuerda que si usas un uplink que ya est previamente en uso en un VSS para crear un VDS, las mquinas virtuales que estuvieran usando ese uplink perdern la conectividad.Aviso:Ten en cuenta que elAverage BandwidthyPeak Bandwidthson medidos enKbps, mientras que elBurst Sizees medido enKB.De la misma manera se mide en los Virtual Distributed Switch. Asimismo, recuerda que el mximo nmero de VDS por servidor de vCenter es de 32.Arquitectura de un Virtual Distributed Switch

Como he mencionado anteriormente, el VDS se crea en el servidor de vCenter y se gestiona desde ese mismo servidor de vCenter.Existen tres mtodos a la hora de crear unport groupsen un Virtual Distributed Switch:1.El adaptador de red con la configuracin delport grouppuede ser asociado con unport groupexistente en un Virtual Distributed Switch.2.Elport grouptambin puede ser migrado desde unvirtual switchestndar a un VDS y viceversa.3.Un adaptador de red con la configuracin de unport grouppuede ser creado durante la instalacin de un Virtual Distributed Switch.Una mejor practica de VMware es la de usar VDS en lugar de VSS ya que los swithes distribuidos ofrecen algunas funcionalidades Enterprise que no estn incluidas en los VSS.Naturalmente tendrs que evaluar el coste adicional asociado al uso de los VDS ya que solo es posible configurar VDS si tienes la licencia Enterprise plus.La configuracin predeterminada en vSphere5, dentro de la poltica de seguridad deNIC Teaming.

Para la poltica de seguridad deNIC Teaming, existen cuatro opciones en el algoritmo deload balancinga seleccionar: route based on the originatingvirtual port ID(por defecto), route based onip hash(es necesario etherchannel), route based on sourceMAC hashyexplicit failover order. Recuerda que las polticas deload balancingpara elVirtual Distributed Switchson las mismas, ms una extra adicional.Para habilitar elNIC teaminges necesario conectar ms de una tarjeta de red fsica a un nicovirtual switch o virtual distributed switch.Si la opcin "explicit failover order" no es elegida como algoritmo de balanceo de carga en unvirtual switchcon mltiples uplinks (NIC teaming) y una de las tarjetas fsicas del teaming se cae", el VMkernel verifica el contador "reported uptime" de las otras NICs para asignar una NIC del teaming y proceder al failover.Beacon Probingse usa en vSphere para detectar e identificar fallos en el enlaceupstream.Es muy til en entornos Blade y en donde tenemos Spaning Three Protocol activado en nuestra red fsica. De esta forma podremos detectar fallos de red en los caminos alternativos.En un VSS con un port group de tipo Management Netowrky un port group tipoVMkernel, y mapeas dos uplinks al VSS, es posible separar el trfico degestiny del traficoVMkernelseleccionando la poltica de balanceo "Explict Failover order".Asimismo, es posible ver ms informacin sobre la configuracin actual de los VSS con el siguiente comando desde la consola de servidor ESXi:

Algunos mximos y mnimos importantes de red en VMware vSphereESXi 5

stos son algunos de los mximos y mnimos en la capa de red para VMware vSphere ESXi 5: 256 es el nmero mximo deport groups ephemeralpor vCenter. 256 es el nmero mximo deport groupspor switch virtual estndar (VSS de las siglas en ingles virtual switch standard). 5.000 es el nmero mximo deport groupsestticos por instancia de vCenter. 5.000 es el nmero mximo de puertos virtuales en switches distribuidos por vCenter. 4.088 es el nmero mximo de puertos de red en los VSS. 350 es el nmero mximo de servidores ESXi 5 que puedes conectar por VDS. 32 es el nmero mximo de VDS por instancia de vCenter. 4096 es el nmero mximo de puertos virtuales de red por host (VSS y VDS). 1.016 es el nmero mximo de puertos activos por host (VSS y VDS). 24 es el nmero mximo de tarjetas de 1GB Ethernet (e1000e Intel PCI-e) por host. 32 es el nmero mximo de tarjetas de 1GB Ethernet (e1000e Intel PCI-x) por host. 24 es el nmero mximo de tarjetas de 10GB Ethernet (NetXen) por host. 8 es el nmero mximo de tarjetas de 10GB (ixgbe) por host. 4 es el nmero mximo de iniciadores de hardware iSCSI Broadcom de 10Gb por host. 512 es el nmero mximo de mquinas virtuales por host.Aviso:En cuanto a las diferentes tarjeteras de red y sus combinaciones, VMware vSphere ESXi 5 soporta un mximo de seis tarjetas de 10GB y cuatro de 1GB en un mismo host.La importancia de VLANs en vSphere 5

La configuracin de VLANs en un entorno virtual con vSphere mejora la seguridad de nuestra solucin de virtualizacin.Para la implementacin de VLANs, los servidores VMware ESXi usan una metodologa llamadaport group policies. Para conectar una mquina virtual en unvirtual switchcon una VLAN, debes usar el vSphere Client. Como vemos en la imagen de arriba, la red VM Network es la que ha sido configurada con un VLAN ID.Si no configuras VLANs, las mquinas virtuales que estn mapeadas en cualquierport groupdelvirtual switchpodrn ver todo el trfico.

Captulo 4: Almacenamiento en vSphere 5.El almacenamiento es, sin duda, uno de los pilares ms importantes de una solucin de virtualizacin. Es un componente crtico para poder dotar a nuestro entorno de un plan de contingencia a fallos, alta disponibilidad y migracin de mquinas virtuales entre servidores VMware vSphereESXi.Zoning, LUN Masking y el uso de VAAI en vSphere5

La configuracin de la zona a nivel del fabric de fibra es un mecanismo muy usando tanto para entornos fsicos de SAN FC como para entornos virtualizados con una red de SAN FC.ElZoningse hace a nivel de switch de fibra para restringir las conexiones de los servidores ESXi o servidores fsicos a la cabina de datos y prevenir que otros servidores destruyan los datos en los volmenes.LUN Maskingse puede hacer en dos niveles: a nivel de procesadores de datos (en Ingles SP - Storage Processors) y a nivel de servidor ESXi. Aunque, en la actualidad elLUN Maskingse suele hacer ms a nivel de SP, tambin es posible hacerlo a nivel de servidor ESXi sobre todo cuando usamosBoot From SAN(BFS).Asimismo en los switches de FC de nueva generacin tambin es posible hacerLUN Masking.BFSpuede llegar a ser til para configuracionesdisklessen servidores tipo Blade. Cuando ests haciendoBFS, la LUN FC desde donde arranque el servidor ESXi, deber ser solo visible para ese servidor. Los otros DataStores VMFS, deberan ser visibles a todos los servidores ESXi.Asegrate siempre de que cambies tu configuracin de la zona del fabric de FC o las propiedades de las LUNs, hacer un rescan de tu fabric a nivel de centro de datos. De esta forma te aseguras que todos los servidores tienen la ltima configuracin de tu SAN.

Desde VMware vSphere4, aparecieron APIs por doquier, lo cual ha permitido evolucionar el producto a nivel de almacenamiento con caractersticas muy innovadoras. Una de las APIs ms importantes, y que ya apareci en la versin 4.1, es lavSphere APIs for Array Integration, tambin conocida por el acrnimoVAAI.En consecuencia, una cabina con soporte VAAI para la nueva versin de VMware vSphere ESXi tendr un mayor rendimiento en las siguientes operaciones:Write Same/Zeronos ayuda a eliminar I/O en tareas repetitivas y disminuir el consumo de CPU, por ejemplo, laclonacinmasiva o elaprovisionamientode mquinas virtuales.Fast/Full Copynos permite realizarStorage vMotionsin trfico en la red o las HBAs, ya que lo realiza la cabina SAN. La duracin de la migracin disminuye en un 25%, segn datos proporcionados por EMC.Hardware Offloaded Lockinges una gran funcionalidad. Hasta ahora las reservas SCSI que se realizan sobre un datastore VMFS se realizan a nivel de LUN, por tanto, en un momento dado, solo una mquina virtual puede acceder a la LUN en algunas tareas, con Hardware Offloaded Locking el bloqueo se realiza a nivel de bloque no de LUN. Esto nos permitir aumentar el nmero de mquinas virtuales por datastore en nuestros diseos y disminuir el tiempo decreacin de datastores VMFS y NFS.Thin Provisioning Stunevita que nos quedemos sin espacio en disco poniendo la mquina virtual en pausa hasta que consigamos disco. Esta situacin, puede llegar a ocurrir si aprovisionamos en modoThiny necesitamos ms disco del que tenemos.VAAI estactivadopor defecto en vSphere ESXi 5 a partir de lalicencia Enterprise. Por supuesto, ni que decir tiene, la cabina de datos tambin tiene que soportar VAAI.Para terminar con VAAI, una cabina con soporte VAAI y con el uso de thin provisioning ofrece la posibilidad de reclamar espacio cuando una mquina virtual es migrada a un datastore diferente con Storage vMotion o cuando el disco virtual es borrado.

Con el vSphere Client y desde la pestaa Storage Views podrs ver informacin muy interesante relativa a tus datastores VMFS, como por ejemplo: El estado del algoritmo de multipathing para tus datastores El espacio usado en tus datastores Y un montn de otras cosas interesantes relativas a la configuracin de tu datastoreCmo mostrar ms informacin de los volmenes o datastores en vSphere 5?

Para obtener ms informacin sobre los DataStores VMFS, como, por ejemplo, el estado delMultipathingactual y elespacio usado, selecciona la pestaaStorage Views.El Runtime Name,para un dispositivo de almacenamiento en FC, equivale al nombre de la ruta del dispositivo en formato vmhba:C:T:L, donde C es Controler, T es Target y L es LUN.Elseudo namevmhba32es el nombre que elVMkernelutiliza para losiniciadores software iSCSI. Recuerda que tanto el adaptador de software iSCSI como el adaptadordependent hardware iSCSInecesitan unport grouptipo VMkernel para ser configurados del todo.Si usas una adaptador de tipodependent hardware iSCSIpara tu conexin iSCSI, es posible que el rendimiento de las tarjetas de red asociadas con este adaptador muestren muy poca actividad, incluso cuando el trafico via iSCSI es muy alto. Esto es consecuencia directa de que el trafico iSCSI hace un bypass del trafico normal de red y no se ver reportado por las herramientas internas de monitorizacin de red del servidor ESXi (esxtop).Asimismo, para obtener un mejor rendimiento iSCSI con adaptadores de tipodependent hardware iSCSIes una mejor prctica habilitar la opcin deflow control.Flow control est habilitado por defecto en todas las tarjetas de red en los servidores ESXi 5. Es posible deshabilitar flow control. Puedes ver el KB 1013413 en el siguiente enlace para deshabilitarlo:http://kb.vmware.com/kb/1013413Presentando LUNs FC a los servidores vSphere 5

La buena noticia es que el mdulo para el adaptador de fibra es reconocido por elVMkerneldurante la secuencia de arranque, con lo que si elZoningest bien configurado, no deberas de tener mayor problema en ver tus LUNs de FC.Para acceder a las nuevas LUNs, no es necesario hacer un reboot del servidor ESXi. Las nuevas LUNs sern descubiertas por los servidores ESXi siempre que se realice unRescanen cada servidor vSphere ESXi o desde el objeto de inventario DataCenter.Adicionalmente, cuando elimines un DataStore de un servidor ESXi, realiza unRescanen todos los servidores ESXi para actualizar los cambios. Desde la versin vSphere 4.x, se incluye una opcin deRescancentralizado para buscar cambios en la granja de SAN de todos los servidores ESXi incluidos en el mismo objeto de inventario de tipo DataCenter.QLAes el nombre corto del mdulo del driver Linux para una HBA del proveedorQlogic.LPFCes el nombre corto del mdulo del driver Linux para una HBA del proveedorEmulex.Recuerda que las HBAs tiene un nmero identificativo nico y global llamado World Wide Nane, tambin conocido con el acrnimo WWN.Como en la parte de configuracin de red, es una mejor prctica que antes de configurar la parte de SAN en tu entorno virtual, hables con tu administrador de SAN sobre tus necesidades en cuanto a la capa de almacenamiento se refiere.Algunos de los temas que deberas de tener claro y preguntar a tu administrador de SAN antes de implementar el almacenamiento en tu entorno virtual incluyen lo siguiente:El tamao necesario de tus LUNsI/O bandwidth que requieren tus aplicaciones virtualizadasEl tamao de la cache, zoning y LUN masking de tu fabric de SANLa configuracin del multipathing en ESXi, es decir, si es una cabina activa/activa, activa/pasiva o activa/activa con soporte ALUA.Aviso:El nmero mximo de HBAs soportadas en vSphere ESXi 5 ha aumentado de 8 tarjetas HBAs por host ESXi 5 a 16. Asimismo, el nmero mximo de targets por HBA de FC es de 256.Cmo se configura el iniciador software iSCSI en vSphere5?

Una SAN de tipo iSCSI consiste de una cabina de datos con conexiones tipo iSCSI (red de 1Gb o 10Gb Ethernet) la cual contiene una o ms LUNs as como SPs. La comunicacin entre el host ESXi y la cabina iSCSI se establece a travs de una red Ethernet de datos.iSCSI usa el IQN (iSCSI Qualify Name), donde el primer nmero representa el ao, mes y la organizacin que registr el dominio:iqn.2006-01.com.openfiler:volume.vmware.Este nombre IQN no puede superar los 255 caracteres.Los servidores ESXi vienen configurados, por defecto, con un iniciador de software iSCSI. Este iniciador iSCSI transmite comandos SCSI por una red de datos. El target, es decir, la cabina de datos iSCSI, recibe estos comandos SCSI y el SP los procesa.Es posible tener mltiples iniciadores y targets en nuestra red iSCSI. Y a diferencia en las versiones anteriores, en vSphere 5, el iniciador de software no viene instalado por defecto. Puedes ver el video tutorial de la instalacin del iniciador de software iSCSI en vSphere ESXi en un video tutorial de nuestro canal de YouTube llamado:VMware vSphere 5.0 en entornos SAN iSCSIVMware vSphere 5 utiliza CHAP (Challenge Handshake Authentication Protocol) para ofrecer lo que se denominaInitiator authentication. Es una buena prctica aislar la red de gestin, de la red iSCSI y de la red donde estn conectadas todas las mquinas virtuales.Debido al hecho de que las redes IPs que usan la tecnologa iSCSI no encriptan los datos trasmitidos, es aconsejable para configuraciones iSCSI, activar la funcionalidad de CHAP que se incluye tanto en la cabina (target) como en el iniciador de software iSCSI en el servidor ESXi.Si configuras el servidor ESXi con la opcin de CHAP para acceder a una LUN iSCSI y despus deshabilitas CHAP en el servidor, el acceso a las LUNs iSCSI no se ver afectado hasta que no se reinicie el servidor ESX/ESXi o la cabina iSCSI. Puedes activar el CHAP en la pestaa General despus de seleccionar las propiedades del iniciador de software iSCSI.

Aviso:No olvides abrir elpuerto 3260en el firewall del servidor ESXi. El protocolo iSCSI utiliza este puerto para la comunicacin entre la cabina iSCSI (Target) y el servidor ESX (iSCSI initiator).Descubriendo recursos NFS en servidores vSphere 5

Aparte de la conectividad de FC e iSCSI, es posible dotar de almacenamiento NAS, via NFS, a tus servidores ESXi. Estos servidores ESXi acceden al servidor NFS mediante unport groupde tipo VMkernel el cual se define a nivel de switch virtual.Para crear unDataStore NFSen un servidor ESXi necesitas saber el nombre o IP del servidor NFS, el nombre de la carpeta compartida en el servidor NFS y el nombre del DataStore que quieres darle.ESXi solo soporta laversin 3 de NFSsobre el protocolo TCP. Los servidores ESXi ganan acceso exclusivo a las mquinas virtuales creadas sobre un DataStore NFS usando un fichero especial de bloqueo llamado .lck-xxx.Tambin, es posible activar la opcin CHAP para conexiones de tipo NFS. El protocoloCHAP bidireccionalsolo est soportado para los iniciadoressoftware iSCSI.Con el CHAP bidireccional el target verifica el iniciador software y el servidor verifica el target. El iniciador hardware iSCSI solo soportaCHAP unidireccional, es decir, el target verifica al servidor host.Aviso:El uso de la funcionalidad de usuario delegado que permite acceso a un DataStore NFS no est soportado en ESX/ESXi 4.x. Las mquinas virtuales creadas sobre DataStores NFS tienen formatothin,a diferencia de las mquinas virtuales creadas sobre DataStores VMFS en FC, las cuales tienen un formatothick.Configurando multipathing con iniciadores software iSCSI en vSphere5

En vSphere 5 es posible configurar el algoritmo de multipathing que viene embebido en el VMkernel del ESXi. La idea general de este algoritmo de multipathing es ofrecer a tus servidores ESXi caminos alternativos en caso de cada de un switch fsico, una tarjeta de red o incluso un SP de tu cabina.Asimismo, es posible usar las opciones de multipathing para poder dotar de un mecanismo de balanceo de carga a nuestras LUNs de datos.Es posible cambiar el Multipathing Pluging (MPP) para uno o ms datastores aunque es siempre una mejor prctica asegrate que tipo de MPP soporta tu cabina confirmndolo primero en el HCL de las siglas en ingles Hardware Compatibiliy List - de VMware.Puedes ver el HCL de todas las capas en una solucin de virtualizacin en el siguiente enlace:http://www.vmware.com/go/HCLCuando se usa el Multipathing Plugings (MPPs) en vSphere 5, el Pluggable Storage Architecture (PSA) ejecuta las siguientes tareas:1. Gestiona las colas de E/S de disco de la HBA (Host Bus Adapter).2. Descubre y elimina rutas fsicas.3. Gestiona las colas de E/S de disco en el dispositivo lgico.Cuando configurasmultipathingcon iniciadores software iSCSI, debes configurar dosport groupstipoVMkernel. Despus, mapea cadaport groupa unuplinkdiferente sobre el mismovirtual switchy selecciona el algoritmo de multipathingRound Robin.La idea general es, despus de seguir todos los pasos siguientes, tener al menosdos caminos por LUN activospara que de esta manera podamos aumentar, no solo ladisponibilidad con VMware multipathingsino tambin, elancho de banda de E/Sde nuestrosdatastores envSphere ESXi 5.A continuacin, te resumo los pasos a seguir para crear una configuracin multipathing tanto para iSCSI como para conexiones NFS en tus servidores ESXi:Paso 1: Configura un vSwitch y habilita el Jumbo FramesEste paso (Jumbo Frames) tienes que hacerlo desde lnea comando para la versin ESX/ESXi 4.x pues en losvswitch estndaresde esta versin no tienes la opcin de hacerlo desde la GUI (si est disponible en losvswitch distribuidos). Para la nueva versin de vSphere ESXi 5 ya es posible activar el Jumbo Frames tambin desde la GUI para los VSS.esxcfg-vswitch a vSwitch1(crea un vSwitch llamado vSwitch1)esxcfg-vswitch m 9000 vSwitch2(activa jumbo frame en el vSwitch1)Paso 2: Aade los VMkernel Ports iSCSIAqu, depender de lastarjetas de redque tengas cableadas y de lascontroladoras de discoque tengas en tu cabina.Al menos, deberas de configurar dosVMkernel Portscon dostarjetas de redpara tener, tantobalanceo de carga con RR( de las siglas en ingls Round Robin) como mecanismo de balanceo de carga.esxcfg-vswitch A iSCSI1 vSwitch1( crea un VMkernel port llamado iSCSI1 )esxcfg-vmknic a i 10.10.1.1 n 255.255.255.0 m 9000 iSCSI1(asigna una ip, subnet mask y jumbo frames al VMkernel port iSCSI1)esxcfg-vswitch A iSCSI2 vSwitch1( crea un VMkernel port llamado iSCSI2 )esxcfg-vmknic a i 10.10.2.1 n 255.255.255.0 m 9000 iSCSI2(asigna una ip, subnet mask y jumbo frames al VMkernel port iSCSI2)Paso 3: Asigna las tarjetas de red fsicas al vSwitch1Primero, asegrate que tienes al menos dos tarjetas de red fsicas sin asignar a otro vswitch. Lo puedes ver con este comandoesxcfg-nics l.esxcfg-vswitch L vmnic3 vSwitch1(Conecta la tarjeta vmnic3 al vSwitch1)esxcfg-vswitch L vmnic4 vSwitch1(Conecta la tarjeta vmnic4 al vSwitch1)Aqu viene lo bueno. Por defecto, cuando creas unteam en un vswitchlas dos tarjetas en el team se convierten por defecto enactiva/activa. Para que elmultipathing ESXifuncione con eliniciador de software iSCSIdebes cambiar las propiedades del multipathing. Lo explicar en el siguiente paso.Paso 4: Asocia los VMkernel Ports a las tarjetas de red fsicasAntes de seguir con este paso, teclea el siguiente comando:esxcfg-vswitch lDeberas de ver algo as en tu vSwitch1:Switch Name Num Ports Used Ports Configured Ports MTU UplinksvSwitch1 64 7 64 9000vmnic3,vmnic4PortGroup Name VLAN ID Used Ports UplinksiSCSI2 0 1 vmnic3,vmnic4iSCSI1 0 1 vmnic3,vmnic4Aqu, puedes ver que las dos tarjetas estn asociadas en los dosVMkernel Ports. Esto es lo que tienes que cambiar con el siguiente comando.esxcfg-vswitch p iSCSI1 N vmnic3 vSwitch1(borra el vmnic3 del VMkernel port iSCSI1)esxcfg-vswitch p iSCSI2 N vmnic4vSwitch1 (borra el vmnic2 del VMkernel port iSCSI2)Para verificar que has tecleado bien los comandos anteriores, vuelve a teclear este comando para ver la salida:esxcfg-vswitch lDeberas de ver algo as:Switch Name Num Ports Used Ports Configured Ports MTU UplinksvSwitch1 64 7 64 9000vmnic4,vmnic3PortGroup Name VLAN ID Used Ports UplinksiSCSI2 0 1 vmnic4iSCSI1 0 1 vmnic3Paso 5: Habilita el iniciador de software iSCSICon el comandoesxcfg-swiscsi ehabilitas eliniciador de software iSCSI.Paso 6: Muy importante: Crear el Binding de los VMkernel Ports con el iniciador de software iSCSIPrimero, confirma el seudo-name de tu iniciador de software iSCSI. Lo puedes ver con este comando.esxcfg-scsidevs aDeberas de ver algo as:vmhba0 mptsas link-n/a sas.5001ec90e0ba7c00(1:0.0) LSI Logic / Symbios Logic LSI1068E vmhba1 ata_piix link-n/a ide.vmhba1(0:31.1) Intel Corporation 631xESB/632xESB IDE Controllervmhba32 ata_piix link-n/a ide.vmhba32(0:31.1) Intel Corporation 631xESB/632xESB IDE Controllervmhba33 iscsi_vmk link-n/a iscsi.vmhba33() Software iSCSIEn mi caso como ves, el seudo-name de mi iniciador software iSCSI esvmhba33Segundo, determina el nombre exacto de losVMkernel portsde tus iniciadores iSCSI. Lo puedes ver con este comando:esxcfg-vmknic lInterface Port Group/DVPort IP Family IP AddressNetmask Broadcast MAC Address MTU TSO MSSEnabled Typevmk3 iSCSI1 IPv4 10.10.1.1255.255.255.0 10.10.5.255 00:50:56:7b:d8:21 9000 65535 trueSTATICvmk4 iSCSI2 IPv4 10.10.2.1255.255.255.0 10.10.5.255 00:50:56:7e:ae:81 9000 65535 trueEn mi caso, como ves en la salida anterior, es elvmk3y elvmk4.Una vez que conozcas cul es el nombre del iniciador de software iSCSI (vmhba32) y de los VMkernel ports (vmk3 y vmk4), ya puedes hacer elbindingcon el siguiente comando:esxcli swiscsi nic add n vmk3 d vmhba33(crea el binding para el vmk3 VMkernel port con el iniciador de software iSCSI vmhba33)esxcli swiscsi nic add n vmk4 d vmhba33(crea el binding para el vmk4 VMkernel port con el iniciador de software iSCSI vmhba33)Para verificar que se han creado bien los binding con los VMkernel ports y el iniciador de software iSCSI, teclea el siguiente comando:esxcli swiscsi nic list d vmhba33Deberas de ver que los dosVMkernel portsestnincluidos en el iniciador de softwareiSCSI.Paso 7: Conecta la cabina iSCSI a tu entorno vSphereESXi 5 Entra en la seccinConfiguration -> Storage Adapters. Haz click eniSCSI Software Adapterand seleccionaProperties. Haz clic en la pestaaDynamic Discovery. ClicAdd.En la secciniSCSI Server box, asegrate de poner la IP del grupo o el IP de tu cabina iSCSI y selecciona Ok.Recibirs un mensaje que te pide hacer unRescan de todas las HBAs. Dile que ests de acuerdo y en unos minutos deberas de ver tus LUNs si estas han sido configuradas correctamente en tu cabina y los servidoresVMware vSphere 5ESXitienen acceso a las LUNs.Aviso:Ahora para la versin vSphere ESXi 5 es posible hacer el mecanismo de port binding desde la GUI.Entendiendo el sistema de archivos VMFS en vSphere 5

vSphere 5 utiliza un sistema de archivos propietario de VMware llamado VMFS - de las siglas en ingles Virtual Machine File System- como sistema de archivos, el cual est optimizado para ejecutar mltiples mquinas virtuales como una carga de trabajo nica (workload).Este sistema de archivos soportajournaling,est optimizado para albergar mquinas virtuales y soporta funciones declusteringa nivel de sistema de archivos.vSphere 5 ofreceasignacin dinmica del almacenamientomediante la funcionalidadvStorage Thin Provisioning.VMware soporta Thin Provisioning a nivel de sistema de archivos en VMFS pero, adems, tu cabina de datos debe soportar Thin Provisioning.Se pueden acceder a los volmenes VMFS a travs del nombre del volumen, por el nombre del DataStore o la direccin fsica: vmhba0:0:1:1. Todas las particiones VMFS y NFS sonmontadasbajo el directorio/vmfs/volumes en tus servidores VMware vSphere ESXi.EL nmero mximo deextenders(nmero de LUNs que podemos unir como si de una sola LUN se tratara)para un DataStore VMFS es de 32. Por lo tanto, el tamao mximo de un volumen VMFS es de 64TB menos 16K (metadata).Los volmenes VMFS que pueden ser "desmontados" con el comandoumountson los DataStores VMFS montados y todos los volmenes NFS. Cuando se elimina un DataStore VMFS desde un servidor vSphere ESXi, este es eliminado en todos los servidores vSphere ESXi que tuvieran conectividad con el DataStore. Por eso es conveniente, siempre que se cambia o reconfigura el acceso a los discos, hacer un scan del fabric de fibra.Aviso:Las LUNs (FC e iSCSI) pueden ser formateadas en VMFS-3 con diferentes tamaos en elblock size:1MB- 256GB,2MB- 512GB,4MB- 1024GB y8MB- 2048GB. Por tanto, si formateas un volumen VMFS con un block size de 4MB, el disco virtual no podr superar el tamao de 1TB (menos 512Bytes). A continuacin, te muestro la tabla de los block size y el tamao de los ficheros en VMFS-3:

Nuevo iniciador FCoE en vSphere 5Ahora, en la nueva versin de vSphere 5, es posible instalar un nuevo iniciador de software FCoE. En el ao 2007, Intel anunci el proyecto Open FCoE, con el objetivo de dar soporte de FCoE sobre adaptadores Ethernet de 10Gb en el kernel de Linux, sin necesidad de tener que usar tarjetas especficas de FC como ocurre con las tarjetas CNAs - de las siglas en ingles Converged Network adapters -.Actualmente, esta iniciativa ha conseguido el respaldo de Microsoft, Red Hat, SuSe y ahora de VMware, adems de estar soportada en los conmutadores Brocade y Cisco, as como en los sistemas de almacenamiento de EMC y NetApp.Open FCoE est soportado en vSphere 5 y solo hay que activarlo como si fuera un iniciador iSCSI, o sea activamos el software FCoE Adapter en la configuracin de los Storage Adapters del host ESXi nos aparecer un dispositivo vmhba (virtual) que encapsular el trfico FC en un puerto VMkernel, sin la necesidad de tener que comprar una tarjeta CNA.Con Open FCoE podremos, en un futuro, utilizar cualquier adaptador que soporte Open FCoE. Por ahora la lista est limitada a adaptadores Intel X520.Si esta iniciativa avanza y llega a consolidarse, tendremos ms opciones a la hora de escoger tarjetas con soporte FCoE.Como siempre, si la tecnologa FCoE se estandariza veremos tambin unos precios mucho ms competitivos que los precios de hoy en da.Entendiendo los diferentes algoritmos de failover en vSphereESXi 5

Como he mencionado anteriormente,Multipathinges el proceso por el que el kernel de VMware ESXi permite el acceso continuo a una LUN en la SAN cuando se produce un fallo en algn componente hardware: SP, switch de fibra, HBA o un cable de fibra. Es lo que denominamos failover.En la actualidad, VMware ESXi 5 soporta failover a nivel de HBA, switch de fibra, cable o incluso a nivel de procesador de datos de la cabina.Existen en la actualidad tres algoritmos de failover en vSphere ESXi: MRU (Most Recently Used), Fixed (prefered path) y RR (Round Robin), siendo este ltimo ms bien un algoritmo de balanceo de carga que de failover.El algoritmo MRU,es seleccionado por defecto por vSphere para las cabinas de almacenamientoActiva/Pasivamientras queFixedes seleccionado para las cabinas de tipoActiva/Activa.La diferencia elemental de una cabina activa/activa versus una cabina activa/pasiva es que en las primeras los dos procesadores de datos pueden ejecutar un I/O de disco en la misma LUN.Sin embargo, para las cabinas de tipo activa/pasiva solo un procesador de datos puede hacer un I/O de disco. Esto no significa que en esta configuracin haya un procesador de datos en modo standby sin hacer ningn I/O de disco. Todo lo contrario, lo que para una LUN un SP puede estar configurado como pasivo, para otra LUN este mismo SP puede estar configurado como activo, con lo que los dos SP estn procesando I/Os pero no a la misma LUN. Esto cambia con el uso de ALUA, que no es ms que el proceso de convertir una cabina activa/pasiva en activa/activa mediante la activacin, y valga la redundancia, de la interface de interconexin interna entre los dos SPs.Aviso:Para incrementar el rendimiento de una mquina virtual, es posible cambiar la poltica de multipathing de Fixed a Round Robin para cabinas de tipo activa/activa..Hola,

Ayer vimos la parte de red y de almacenamiento. Hoy vermos el servidor de vCenter y las mquinas virtuales

Hasta maana y espero que sigas disfrutando de este curso gratuito de VMware vSphere en cinco das!

Jose Maria GonzalezCEO y Fundador dewww.jmgvirtualconsulting.com

P.S. Si te gustara aprender mucho mas sobre vmware en mucho menos tiempo, ahora tienes acceso a nuestrocurso online VMware vSphere 5.5Avanzadoa un precio reducido!

Captulo 5: VMware vCenter Server 5

https://www.youtube.com/watch?v=Dgz_G8wwqI4

Posiblemente vCenter Server sea considerado el componente ms importante de una infraestructura virtual en VMware vSphere ESXi 5. Es, por tanto, el componente que permite gestionar, centralizadamente, mltiples servidores VMware vSphere ESXi y mquinas virtuales.El vCenter Server aade funcionalidad en reas tales como alta disponibilidad (VMware HA), balanceo de carga (VMware DRS), Fault Tolerance (FT), actualizacin de componentes (Update Manager) y conversiones de fsico a virtual (VMware Converter).Asimismo, en esta nueva versin y, por primera vez, tenemos la posibilidad de desplegar el vCenter Server en formato appliance el cual est basado en un sistema operativo Linux. Esto te permitir seleccionar el tipo de instalacin del servidor de vCenter, Servidor Linux o servidor Windows?Qu es el VMware vCenter Server?El servidor de vCenter acta como un nico punto de administracin central en nuestro entorno de vSphere 5.El software de vCenter Server consiste en multitudes de mdulos y servicios y es instalado en un servidor (virtual o fsico) con el sistema operativo soportado Windows.A diferencia de las versiones anteriores, vSphere 5 incluye una nueva versin de vCenter Server en modo appliance para entornos con Linux. vCenter Server ofrece las funcionalidades Enterprise, como por ejemplo, VMware Distributed Resource Scheduler (DRS), VMware High Availability (HA), VMware Fault Tolerance(FT), VMware vMotion y VMware Storage vMotion.Una sola instancia de vCenter Server soporta un mximo de 1.000 hosts ESXi y 15.000 mquinas virtuales registradas (10.000 mquinas virtuales encendidas). Sin embargo, en el hipottico caso que necesitaras gestionar ms de 1.000 servidores ESXi o 10.000 mquinas virtuales, tendras que comprar otra licencia de vCenter y conectar estos sistemas de vCenter en lo que se denomina ungroup en mode Linked.El nmero mximo de servidores de vCenter Server (versin Windows) que se pueden conectar juntos (modo Linked ) entre si es de diez. Sin embargo, la versin Linux de vCenter, vCenter Server Appliance, no soporta aun esta funcionalidad de modo Linked. vCenter Server tambin puede ser instalado enLinked Mode, en caso de querer ver el estado del servidor de vCenter para todos los servidores en el inventario.Asimismo para poder desplegar este appliance en tu entorno virtual tendrs que formatear el disco y asignar un mnimo de RAM requerida para que arranque el appliance - Ver tabla de memoria RAM para el appliance ms abajo -.Recuerda que no es posible conectar via Linked mode dos vCenter Servers de versiones diferentes. Por ejemplo, vCenter 4.1 y vCenter 5.0 no se pueden conectar usando la funcionalidad de Linked mode.Los requerimientos mnimos para vCenter Server 5 son 2CPUs de 2Ghz de 64bits, 4GB de memoria RAM mnimo y 4GB de espacio en disco duro mnimo. vCenter Server 5 ya no soporta las bases de datosOracle 9iniMicrosoft SQL Server 2000.Asimismo, el nmero mximo de vCenter Server que se pueden conectar con el vCenter Orchestrator es de diez. Tambin, el nmero mximo de hosts conectados a un vCenter Orchestrator es de 1.000.Aviso:El nmero mximo de mquinas virtuales que pueden conectarse al vCenter Orchestrator es de 15.000.Hay tres componentes adicionales al vCenter Server que pueden ser aadidos al servidor de vCenter cuando sean necesarios: VMware vCenter ESXi Dump Collector VMware vSphere Web Client VMware vSphere Update ManagervCenter Server 5 requiere que la conectividad ODBC que se crea antes de instalar el servidor de vCenter, sea de 64bits. Este ODBC para conectar la base de datos con el vCenter, no es el mismo que el que se usa para conectar tu vCenter con Update Manager. Adems, la conectividad ODBC para el servicio de Update Manager ha de ser de 32bits.En VMware vSphere ESXi es posible usar VMware Update Manager 5 - hablaremos de este servicio ms adelante en este libro - para hacer actualizaciones del nuevo servidor vCenter Server Appliance. Recuerda que para poder hacer estas actualizaciones, primero has de configurar el vCenter Server Appliance para permitir actualizaciones desde la pestaa de update en vCenter Server Appliance

Nuevas funcionalidades en vCenter Server 5.

Con independencia de la versin de vCenter que instales, Windows o el appliance Linux, vCenter Server 5 instala, por defecto, los siguientes plug-ins: VMware vCenter Storage Monitoring, VMware vCenter Service Status y VMware vCenter Hardware Status, y uno nuevo en la versin 5 llamado Auto Deploy.Otra de las nuevas funcionalidades aadidas tanto en la versin vCenter Server para Windows como para Linux, es el hecho de que no solo podemos integrar nuestro vCenter en un dominio de directorio activo de Windows, sino que tambin ahora esta soportado NIS.Se necesita usar un sistema operativode 64Bits,ya sea virtual, fsico,Windows o Linux, donde ejecutar vCenter Server 5.VMware recomienda no instalar el servidor vCenter Server en un controlador de dominio. En cuanto a la configuracin IP, tambin recomienda asignarle una direccin IP esttica, o en su defecto, registrar el servidor en un DNS si se usa DHCP.Con vCenter Server podemos gestionar los siguientes servicios de una forma centralizada: High Availability (HA), Distributed Resource Scheduler (DRS) y Data Recovery.VMware soporta vCenter Server en una mquina virtual. Los beneficios son los siguientes: vCenter puede ser migrado con vMotion, es posible hacer un backup usando vCenter Data Recovery y ste puede ser protegido con VMware High Availability.Los mdulos VMware vCenter Update Manager, VMware vCenter Guided Consolidation, VMware vCenter Convert, VMware Data Recovery, VMware vCenter CapacityIQ, VMware AppSpeed Server y VMware Site Recovery Mananger no estn preinstalados cuando instalamos vCenter Server y, por consiguiente, deben de ser instalados a posteriori.

A continuacin vemos el plugin vCenter Service Status que verifica el estado del servicio de vCenter Server. Este aspecto es muy interesante en una configuracin en modo Linked ya que es posible ver el estado de todos los servicios de vCenter de sus respectivas instancias desde una sola consola.

Aviso:vCenter Server incluye una consola KVM (de las siglas en inglesKeyboard, Video and Mouse) embebida en cada mquina virtual registrada en el vCenter. El nmero mximo de sesiones concurrentes a la consola de una mquina virtual es de 40.Prerrequisitos hardware/software de vCenter Server 5Requerimientos Hardware (Versin Windows): Procesador: 2 CPUs 64-bit 2.0GHz Intel o AMD x86. Memoria: 4GB RAM mnimo. Disco: 4GB recomendado. Red: Adaptador Ethernet (1 Gigabyte recomendado).Requerimientos Software: Windows XP Pro 64-bit, SP2 y SP3 Windows Server 2003 64-bit Standard, Enterprise y DataCenter, SP1 y SP2 Windows Server 2008 64-bit Standard, Enterprise y DataCenter, SP2 Windows Server 2008 R2 64-bitLos requerimientos de procesador, memoria y disco sern ms altos si la base de datos de vCenter y Update Manager estn instaladas en el mismo sistema virtual o fsico.Recuerda que el modo Linked an no est soportado en la versin Linux llamada vCenter Server Appliance.Aviso:El nmero mximo de datastore que un vCenter puede ver es de 256. Asimismo, el servicio de vCenter Server requiere un IP fijo y un nombre de dominio interno registrado en tu servidor de DNS.Quizs el componente ms importante en vCenter es su base de datos. vCenter Server 5 almacena todos los datos del inventario, estado de cada mquina virtual y configuracin de cada Servidor VMware vSphere ESXi, en una base de datos relacional. Las bases de datos soportadas por vCenter Server para Windows son las siguientes:vOracleOracle 10g F2Oracle 11gvIBM DB2 9.5 y 9.7vMicrosoft SQLSQL Server Server 2005 SP3 (recomendado SP4)SQL Server 2008 R2 Express*SQL Server 2008*SQL Server 2008 R2 Express es solo recomendada en entornos pequeos de hasta 5 hosts ESXi y 50 mquinas virtuales.En cuanto a la versin Linux de vCenter Server se refiere, los requerimientos de software son diferentes. No obstante, el usuario o administrador del entorno virtual, no notar ninguna diferencia con el hecho de tener la versin Windows o Linux de vCenter instalado en tu entorno.El servicio de vCenter en modo appliance reduce el tiempo requerido para instalar y configurar la versin de vCenter en Windows, ya que la versin appliance para Linux viene pre-instalada.Sin embargo, a nivel de base de datos el appliance an no soporta SQL. A da de publicacin de este libro solo soporta Oracle y DB2 (express) como base de datos.vCenter Server virtual Appliance usa un kernel versin 2.6.32.29-03 de SuSe Linux y estos son sus requerimie