Revista TecnoVista
-
Upload
marzie-hernandez -
Category
Documents
-
view
217 -
download
0
description
Transcript of Revista TecnoVista
la revista de tecnologia para la clase.TeCNOvista
pag.8
pag.12
pag.15
pag.1
Edicion de Primer Parcial- por: Miriam Morales y Marcelo Hernandez
Índice ¿Aun usas Windows XP? 1
Pci y Pci Express 3
Historia Pci 4
Disco Optico 3d podrá Llegar 7
Hasta 1 Terabyte de Datos
Microsoft Licencia Tecnologia ARM 8
Teorias sobre Fusion de 10
Microsoft y ARM
Intel Core i7-980x Extreme Edition 11
USB 3.0 13
Nvidia 3DTV Play 15
AMD Tecnologías 2010 y 2011 17
1
¿Aun usas Windows XP? Hoy en día todavía hay
personas que siguen usando Windows XP, un sistema operativo de hace… ¡9 años! Los usuarios de este sistema operativo no solo usan un sistema operativo muy antiguo, sino que además se arriesgan a que desde ahora el nuevo hardware que salga a la venta no tenga compatibilidad.
Ahora serán los discos duros los que “tengan problemas” con XP por un sencillo motivo, se ha cambiado la forma de almacenar datos en los discos, una forma que en teoría no es compatible con XP. Nos explicamos.
Desde los tiempos en los que se usaba el DOS los datos guardados en los discos duros se organizaban en sectores de 512 bytes. Este formato era compatible con los discos duros y los disquetes ya prácticamente desaparecidos del mundo, excepto en sistemas muy antiguos. Este tipo de organización de datos en sectores de 512 bytes se quedó anticuado si se quería
mantener el formato de los discos duros y aumentar la capacidad de los mismos, por eso se creó una forma de almacenar más datos en el mismo sector, superando los 4K (4 kilobits = 512 bytes).
Los discos duros actuales soportan Windows XP sin problemas, pero a partir de 2011 la organización que reúne a los fabricantes de discos duros empezarán a usar el nuevo 4K Advanced Format, una tecnología de la que ya hemos hablado y que aumenta la capacidad de los discos duros reordenando los datos.
2
El problema llega con los sistemas operativos, bueno, con Windows XP, un sistema operativo a punto de cumplir 10 años y que todavía se sigue usando. Esta nueva tecnología no es compatible con el Advanced Format, pero en teoría, porque parece que los fabricantes darán un par de años más para actualizar equipos. Si usas Windows XP con uno de los nuevos discos duros se podrán usar sin problemas, ya que el disco duro tratará de virtualizar el nuevo formato para que sean compatibles.
Pero no es una solución, es un parche, un remedio para que los equipos antiguos o los usuarios vagos que aun no se han actualizado lo hagan. La virtualización de este sistema requiere más esfuerzo del disco duro y sus velocidades de lectura y escritura se verán afectadas, pudiendo llegar a los 5 milisegundos ya que al guardar los datos al disco duro la información tendrá que pasar por dos métodos y no uno.
Sistemas operativos modernos como Windows 7 o incluso Windows Vista, las últimas versiones de Linux y Mac OS X desde la versión Tiger son compatibles con este formato por lo que si tienes alguno de estos sistemas, no te preocupes.
Aun quedan usuarios usando Windows XP, muchos usan la excusa de que Windows es demasiado caro… bien, creo que si alguien se compró un equipo con licencia de XP incluida y lo han usado durante 9 años, ha quedado más que probado que ha sido un gasto bien invertido.
3
PCI y PCI Express Desde hace varias semanas tenemos en el mercado productos PCI Express, aunque esto se
remite sólo a placas madre y tarjetas de video. Son totalmente incompatibles con nuestras
tarjetas AGP y PCI estándar, lo que implica un gasto extra en el upgrade (aunque algunas
placas madre PCI Express tienen slots PCI estándar) y las mejores tarjetas de video
aparecen sólo en formato PCI E. Pareciera que nos están obligando a cambiarnos de
plataforma.
Mejorando al alumno menos aventajado
Memorias DDR y DDR2, tarjetas Ethernet Gigabit, discos duros de alto rendimiento,
procesadores más rápidos, tarjetas de video con poder de cálculo teórico mayor incluso
que el de un procesador, placas sin controlador de memoria, x86-64 y direccionamientos
de mas de 16 hexabytes de memoria, 130nm, 90nm, 65nm, Hypertransport,
hyperthreading, Multi-core, virtualización etc... todos han mejorado en estos 10 años y el
puerto PCI se mantiene igual. En algún momento tenía que cambiar.
¿Qué es PCI?
Una definición algo gruesa sería que PCI es el canal de datos en donde se conectan los
dispositivos como tarjetas de red, discos duros, etc.
Cada dispositivo (una tarjeta de sonido, de red, de video PCI, tarjeta usb, etc) transmite
datos hacia el SouthBridge (o Host según la imagen) el cual lo reenvía al NorthBridge y
finalmente éste lo envía
al procesador. Como se
puede apreciar en la
figura, es un bus
compartido lo que
significa que sólo un
dispositivo puede
transmitir a la vez.
Trabaja a una
frecuencia de 33Mhz en
un bus de 32 bits
permitiendo transferir
hasta 133MB/seg.
4
Un poco de historia
El PCI (Peripheral Component Interconnect), como lo conocemos hasta ahora, fue creado
por Intel en el año 1991 el cual se volvió estándar después de una encarnizada pelea con
el sistema de buses VLB (VESA Local Bus) el cual contaba con una interface mejorada con
respecto al ISA antiguo, con una frecuencia de 33 mhz a 32bits.
La mayor gracia del VLB con respecto al PCI es que era una extensión del mismo bus de
datos del procesador, por lo que los tiempos de acceso lo hacían un bus bastante rápido
con una velocidad final igual a la del procesador y sin necesidad de hacer escalas. Pero
esta misma virtud del VLB fue su propia perdición. Al estar sincronizado el procesador con
los dispositivos, si el procesador cambia deberás cambiar todos los dispositivos por unos
completamente distintos y más caros. Por ejemplo, si quieres upgradear tu Celeron
1800Mhz a un Pentium 4 2400Mhz entonces tendrías que cambiar también las tarjetas de
video, de red, de sonido por unas compatibles con el Pentium 4 2400Mhz que por lo
demás serían muchísimo más caras.
Esto permitió que el PCI lograra el estándar, ya que a medida que el bus de datos de los
procesadores venideros fue creciendo, se hizo poco viable el VLB ya que el fabricar un bus
de estas características era costoso y además no permitía una gran cantidad de
conexiones periféricas lo que era una limitante al momento de aglutinar varios sistemas
de entrada y salida dentro de un mismo pc.
El PCI en cambio, a pesar de su menor frecuencia de acceso, proporcionaba gran cantidad
de conexiones a una velocidad y ancho de banda decente con un costo de
implementación muy bajo, acceso directo a memoria y funcionamiento asíncrono a 25 o
33mhz lo que permitía tener procesadores mas rápidos sin necesidad de aumentar la
frecuencia de los buses PCI. Ademas de eso su estructura facilitó la introducción del Plug &
Play (o Plug & Pray para algunos), asignaciones DMA e IRQ dinámicas y la posibilidad de
que un dispositivo pudiera tomar el control del bus para dialogar entre si con otros
dispositivos disminuyendo posibilidades de conflictos y aumentando el rendimiento para
aquellos periféricos que requerían de mayor ancho de banda, como: discos duros,
sistemas de almacenamiento o sistemas de red.
Con la introducción del PCI 2.0 en el año 1993 y la aparición del Pentium el año 1994 el PCI
terminó por convertirse, definitivamente, en estándar hasta el dia de hoy.
5
6
7
Disco óptico 3D
podrá llegar a 1 Terabyte de datos!
La empresa emergente Mempile, localizada en Israel, anunció estar en el camino para quebrar la barrera de 1 Terabyte de datos almacenados en
discos ópticos. Al contrario de los DVDS y CDS, la tecnología TeraDisc, aún en fase de desarrollo, utiliza un disco transparente, sin aquella tradicional capa reflexiva. Aún con los recientes avances de las tecnologías de láser azul, el almacenamiento óptico tiene restricciones al aumento en el número de capas que pueden ser grabadas en un único disco. Eso acontece porque la reflexión sólo parcial de las múltiples capas lleva a la reducción de la señal, aumentando el ruido y la interferencia.
Discos Ópticos 3D
En la nueva tecnología, la grabación de los datos es hecha en más de 100 capas virtuales, permitiendo una especie de almacenamiento en 3D al largo de todo el volumen del disco. La empresa ya consiguió demostrar el funcionamiento de la tecnología en discos con 0,6 milímetros de material activo. Los ingenieros de la Mempile están ahora trabajando para alcanzar un espesor de 1,2 milímetros, la misma de un DVD. La previsión es que ese objetivo sea alcanzado alrededor de 2010, cuando entonces el disco óptico transparente del espesor de un DVD tendrá 200 capas, con capacidad para almacenar 5 GB de datos cada uno - 1 Terabyte en el total.
8
Microsoft
Licencia Tecnología ARM
Actualmente, más del 90 por ciento de los procesadores presentes en
teléfonos móviles están basados en arquitectura ARM. Por supuesto, su
utilización va mucho más allá
de las telecomunicaciones, y es
posible encontrarlos en
dispositivos como calculadoras,
reproductores de música, e
incluso discos duros. A través de
las licencias, grandes empresas
el universo informático han
podido acceder a esta
tecnología. Encontramos
ejemplos como Marvell y
Qualcomm, Samsung, LG,
Broadcom, y gigantes como
Apple (el A4 en el iPhone) y
Nvidia (con su Tegra). Ahora, a
esta legión se suma nada
menos que Microsoft. Si bien los
dispositivos de Microsoft no utilizan actualmente esta tecnología (salvo el
desaparecido KIN), esto ha generado varias teorías sobre cómo podrían
llegar a aplicar esta nueva licencia en Redmond.
Se pueden encontrar múltiples chips basados en la arquitectura ARM,
incluyendo al A4 que Apple utilizó para el iPhone 4
El anuncio oficial fue corto y relativamente poco sustancioso, pero no es
común que un gigante como Microsoft y alguien de casi absoluta
presencia en el mercado móvil como ARM firmen esta clase de acuerdos.
La primera teoría que ha comenzado a flotar en la red es que Microsoft
decida hacer su propia tablet. La posibilidad de que Hewlett-Packard
haga un dispositivo propio basado en el recientemente adquirido WebOS
es muy grande, por lo que en Redmond optarían por darle forma ellos
mismos.
9
También se habló de una nueva edición de la Xbox utilizando chips ARM.
Los problemas iniciales de diseño en la Xbox 360 y los clásicos
inconvenientes generados por la acumulación de calor dentro de la
consola estarían entre las razones para el cambio de plataforma.
Otra teoría indica un salto hacia ARM en la próxima generación de la Xbox
Sin embargo, en este momento lo más importante para Microsoft sigue
siendo Windows 7. Desarrollar una versión de su sistema insignia para chips
ARM representaría un enorme paso a la hora de llevar los productos
Microsoft hacia la arquitectura ARM. Incluso un teórico "Windows 7 ARM"
podría volverse un sistema operativo opcional para otros dispositivos,
expandiendo su influencia. Ya que Microsoft actualmente recurre a
hardware de otros para fabricar sus dispositivos y periféricos, la posibilidad
de que algo surja de Redmond con un chip ARM en su interior no parece
muy firme, pero hay que tener en cuenta que Microsoft es la única
empresa dedicada al software que ha obtenido esta clase de licencia de
arquitectura. Las otras tres empresas, Qualcomm, Marvell e Infineon, se
dedican al aspecto del hardware. Esto sin dudas defiende la postura de
una tablet propia.
10
Otras teorías quieren
ver en este contrato
una posible maniobra
para extender el
próximo Windows 8 a
plataformas basadas
en ARM. La teoría no
es trivial, Windows 7 se
ha demostrado un
excelente sistema
operativo incluso para
los netbook, pero la
plataforma X86
presente en estos y en
el resto de PCs con
Windows está compitiendo en desventaja con los dispositivos basados en
ARM en mercados como los tablet pequeños o slates y los smartphones.
El desarrollar una versión de Windows 8 en ARM permitiría a Microsoft
extender la plataforma a más dispositivos con menos consumo y un
tamaño reducido e incluso unificar Windows Mobile 8 con Windows 8 en sus
smartphones y otros dispositivos como tablets. Las ventajas son evidentes,
en el caso de la experiencia de uso unificada, en el desarrollo de
aplicaciones y muchos otros detalles.
El caso es que lo poco que se sabe de Windows 8 encaja en parte con esta
teoría. Windows 8 hará un uso intensivo de la virtualización, eso permite
que se puedan desarrollar núcleos compactos de Windows 8 (uno para la
plataforma X86, otro para ARM) que puedan funcionar como base de esa
plataforma de máquinas virtuales donde funcionarían las aplicaciones de
forma independiente al tipo de procesador. En mayo de 2009 los
representantes de ARM ya mencionaban la posibilidad de desarrollar
Windows que funcionaran sobre la plataforma ARM.
Sin embargo y bajando un poco de la nube, lo más probable es que
Microsoft pretenda con este acuerdo buscar una mayor optimización de
Windows Phone 7 sobre la plataforma ARM y sus variantes a la vez que
también potencia la de sus Windows embebidos, que están cobrando una
gran importancia en la cuenta de resultados de Microsoft.
11
Intel Core i7-980X Extreme Edition Nueva vuelta de tuerca por parte de Intel, esta vez destinada a la gama alta de sus procesadores y a seguir manteniendo su reinado en todos los campos, tanto en rendimiento por MHz como en rendimiento por procesador o capacidad de ejecución multhilo. Llega así el Core i7-980X Extreme Edition, el que se había rumoreado como un posible Core i9, nomenclatura que Intel ya ha dicho que sólo fue un rumor infundado. Se supone que será el procesador más potente del mercado durante, quizá, todo lo que queda de año.
Lo primero que podemos contar es que se trata del primer procesador para sobremesa de Intel con 6 núcleos nativos, utilizando el núcleo Gulftown. Se llamará Core i7-980X Extreme Edition y como su nombre indica pertenece a la gama selecta de Intel al que sólo algunos son capaces de alcanzar con su sueldo. Se trata más de un producto pensado para webs, análisis, demostraciones y la etiqueta de "tenemos el procesador más potente del mercado". Aparte de los que puedan permitirse el desembolso de un procesador de esta gama, la cual siempre mantienen el mismo precio.
Tal y como hemos dicho el procesador pertenece a la gama Extreme Edition y por lo tanto viene con el
multiplicador desbloqueado. Así pues, no falta demasiado para ver noticias sobre overclocks extremos a este procesador y récords de varios tests conocidos, como puede ser SuperPI en su versión para X núcleos o con 3DMark, etc.
A pesar de llevar 6 núcleos el nuevo procesador de Intel no se olvida de las tecnologías que disponen otros procesadores de la familia Core i7, como es el Turbo Boost y el Hyper-Threading.
Intel Tick-Tock
El procesador Core i7-980X utiliza la nomenclatura interna bautizada como Gulftown de la cual también deriva los Xeon de 6 núcleos. Pertenece a la serie o microarquitectura Nehalem y en concreto en la segunda revisión de dicha arquitectura, lo que llamaríamos familia, conocida como Westmere a la que ya pertenecen otros procesadores como los Core i3 y Core i5 bautizados como Clarkdale y Arrandale. Así pues, todos los Westmere son la segunda revisión de los Nehalem en lo que intel llama proceso Tick-Tock.
12
El proceso de evolución Tick-Tock de Intel ya lleva con nosotros algunos años, y está explicada en la propia web del fabricante, pero básicamente se basa en cambiar de arquitectura con el "Tock" y luego reducir el tamaño de fabricación con el "Tick", así se corren menos riesgos de realizar dos cambios en un único paso.
Si estamos en el Tick esto significa que hemos cambiado de proceso de fabricación y el nuevo Core i7-980X está fabricado a 32nm, igual que los Core i3 y Core i5 con VGA integrada.
Durante la presentación varios medios preguntamos acerca de los planes de Intel para pasar los Core i7 de 4 núcleos, Lynnfield y Bloomfield a 32nm y desde Intel nos respondieron que no había planes para hacerlo. De hecho es posible que el único procesador Nehalem de 32nm sin VGA integrada sea el que estamos viendo hoy, ya que no hay ni previsión de lanzar más procesadores de 6 núcleos para el mercado doméstico basados en dicha microarquitectura. Que no haya planes no significa que no vaya a ocurrir, simplemente que no está anunciado internamente y por lo tanto los responsables de Intel o no quieren decirlo o directamente desconocen el dato.
13
USB 3.0, la nueva tecnología que acelera las
transferencias de datos
Se ha demorado más de lo previsto, pero el nuevo estándar de conexión ya está en marcha. El USB 3.0, que ofrece una velocidad superior de transferencia de datos, comienza a abrirse paso en el ámbito empresarial. Productos de corte profesional, entre los que pueden encontrarse portátiles de gama alta o discos duros externos, lo están introduciendo en el mercado.
Con un rendimiento teórico que se sitúa diez veces por encima de su predecesor, esta tecnología permite reducir los tiempos de espera en intercambios o duplicados de archivos, con el consecuente beneficio en productividad. Es su principal aporte, pero no el único.
En la práctica, los primeros accesorios que están incorporando USB 3.0 (también conocido como SuperSpeed USB) ofrecen un rendimiento real entre dos y tres veces superior al de la versión anterior. Por ejemplo, trasladar un volumen de ficheros equivalente a 10 GigaBytes apenas le llevaría entre tres y cuatro minutos (en lugar de diez). Así es por el momento. No obstante, le sería posible alcanzar tasas máximas de 5 GigaBits por segundo, frente a los 480 MegaBits del USB 2.0. Sería como multiplicar por diez la velocidad de transferencia.
14
La tecnología ha sido desarrollada por el USB Implementers Forum, que ha creado dos versiones distintas del conector. El primero de ellos, el tipo A, es idéntico al USB 2.0, sencillamente etiquetado con color azul para diferenciarlo del antiguo estándar.
El tipo B sí es algo diferente, ya que introduce pines de conexión adicional. A su vez, existe una tercera variante algo más pequeña, denominada tipo
micro B.
Como consecuencia, todos los dispositivos 2.0 funcionan en conectores 3.0, pero sólo los de tipo A son retrocompatibles en puertos 2.0.
Lógicamente, sólo se puede beneficiarse de su velocidad mejorada si todos los elementos implicados (accesorio y puerto con su correspondiente controlador) corresponden a la especificación SuperSpeed. En caso contrario su funcionamiento será idéntico al del USB 2.0.
Además, para aprovechar al máximo su rendimiento, la longitud del cable no debe superar los 2,7 metros de longitud (la mitad que en el caso de los 2.0). A cambio, son capaces de conducir hasta 400 miliamperios de electricidad más. Es así como puede alimentar a ciertos dispositivos cuyo consumo no podía ser abastecido con el estándar previo, como discos duros de 3,5 pulgadas, cámaras de vídeo en incluso monitores. El SuperSpeed USB ofrece asimismo tres niveles de consumo y no tiene por qué estar permanentemente malgastando energía.
Hasta la fecha, el chip controlador de NEC es el único que permite combinar los USB 2.0 y 3.0, aunque compañías como Symwave, Fujitsu o Via ya trabajan en sus propios modelos. Sorprendentemente, Intel no planea implementarlo hasta 2011. En cuanto a sistemas operativos, tanto Windows Vista como Windows 7 ofrecen soporte para el mismo. También es compatible con Linux. Por su parte, Apple todavía no se ha posicionado, y se desconoce si finalmente lo adoptará como estándar.
15
Nvidia saca el software 3DTV Play
para que uses tu ordenador como
fuente de contenidos 3D
Nvidia, que ha sido de las primeras (y más listas) marcas en apuntare a todo lo que huele a tres dimensiones, ha presentado un software para facilitar la llegada de contenido 3D procedente de ordenadores a nuestro televisor.
Pero cuidado, el software Nvidia 3DTV Play no hace milagros y seguiremos necesitando una larga cadena: ordenador con las gráficas Nvidia compatibles, un televisor 3D y las gafas activas, además del contenido. Esta solución de Nvidia facilita pues que si tenemos un ordenador preparado para las tres dimensiones, podamos conectarlo con fiabilidad a una pantalla más grande donde disfrutar de ese contenido o juegos en tres dimensiones.
La solución Nvidia 3DTV Play soporta las especificaciones HDMI 1.4 y puede trabajar con gafas tanto activas como pasivas. De momento la marca ha llegado a un acuerdo con Panasonic para que la experiencia con sus televisores 3D sea completa, asegurando la compatibilidad total de su sistema y gafas polarizadas.
Este software estará disponible pronto por unos 30 euros, aunque vendrá de forma gratuita en aquellos kits 3D Vision con gráfica y gafas 3D de Nvidia. Con él, nos aseguran que podremos reproducir contenidos 3D de un disco Blu-Ray usando aceleración de la GPU, o ver películas 3D en streaming.
16
17
Productos AMD para el 2010 y 2011
Se ha recibido información acerca de los nuevos procesadores de AMD para los próximos años, información oficial y que, exceptuando los clásicos retrasos que estos productos suelen sufrir a la hora del lanzamiento final, debería cumplir los plazos de los que hablamos.
De entre todos los nombres en clave que AMD nos ha comentado hay que destacar la arquitectura Bulldozer, pensada para el año 2011 y que pretende servir tanto al sector doméstico como al profesional. Su principal ventaja, ser de alto rendimiento, quizá una nueva generación de chips Phenom bajo el nombre de AMD Phenom III. Quién sabe.
Antes de Bulldozer, en 2010 tendremos lo siguiente:
Plataforma Danubio: para portátiles, hasta 4 núcleos y autonomía de hasta 7 horas.
Plataforma Nilo: para portátiles ultrafinos, posiblemente una nueva generación de procesadores AMD Turion.
Plataforma San Marino y Maranello: destinado a ordenadores servidores, con modelos de 8 y 12 núcleos de proceso.
Plataforma Leo: para el mercado doméstico, los esperados procesadores de 6 núcleos de los que ya hemos hablado bajo el nombre en código Thuban.
18
Y de cara a 2011 veremos esto:
Plataforma Bulldozer y Bobcat: una nueva plataforma de alto rendimiento, con Bulldozer para sobremesas (domésticos y servidores) y Bobcat para portátiles. Se dice que implementará el juego de instrucciones SSE5 y que traerá unos consumos muy ajustados, entre 10 y 100 vatios dependiendo del modelo escogido.
Plataforma Llano: para portátiles y sobremesas domésticos, el esperado combo de CPU y GPU en el mismo chip, o lo que hace tiempo habíamos llamado AMD Fusion.
Plataforma Brazos: será la plataforma Bobcat pensada para netbooks o ultraportátiles. Baja potencia, bajísimo consumo.
Plataforma Zambezi: procesadores desarrollados sobre los Bulldozer pero con hasta 8 núcleos.
Antes de nada, tenemos que tener bien en cuenta que esto es un conjunto de productos previstos para ser lanzados a lo largo de los próximos dos años. Seguramente (estoy seguro al 90%) alguno de ellos sufra algunos retrasos que los lleven a ser lanzados de cara a 2012. Pero es lo que hay y poco podemos hacer los consumidores. Destacar Leo, que hará llegar los primeros procesadores domésticos de 6 núcleos, así como Bulldozer por ser una arquitectura nueva y que promete un altísimo rendimiento. Y por supuesto, a ver en qué queda Llano y en qué ha evolucionado aquella AMD Fusion de la que empezamos a hablar en octubre del 2006.