Revista TecnoVista

21

description

miriam, marcelo

Transcript of Revista TecnoVista

Page 1: Revista TecnoVista

la revista de tecnologia para la clase.TeCNOvista

pag.8

pag.12

pag.15

pag.1

Edicion de Primer Parcial- por: Miriam Morales y Marcelo Hernandez

Page 2: Revista TecnoVista

Índice ¿Aun usas Windows XP? 1

Pci y Pci Express 3

Historia Pci 4

Disco Optico 3d podrá Llegar 7

Hasta 1 Terabyte de Datos

Microsoft Licencia Tecnologia ARM 8

Teorias sobre Fusion de 10

Microsoft y ARM

Intel Core i7-980x Extreme Edition 11

USB 3.0 13

Nvidia 3DTV Play 15

AMD Tecnologías 2010 y 2011 17

Page 3: Revista TecnoVista
Page 4: Revista TecnoVista

1

¿Aun usas Windows XP? Hoy en día todavía hay

personas que siguen usando Windows XP, un sistema operativo de hace… ¡9 años! Los usuarios de este sistema operativo no solo usan un sistema operativo muy antiguo, sino que además se arriesgan a que desde ahora el nuevo hardware que salga a la venta no tenga compatibilidad.

Ahora serán los discos duros los que “tengan problemas” con XP por un sencillo motivo, se ha cambiado la forma de almacenar datos en los discos, una forma que en teoría no es compatible con XP. Nos explicamos.

Desde los tiempos en los que se usaba el DOS los datos guardados en los discos duros se organizaban en sectores de 512 bytes. Este formato era compatible con los discos duros y los disquetes ya prácticamente desaparecidos del mundo, excepto en sistemas muy antiguos. Este tipo de organización de datos en sectores de 512 bytes se quedó anticuado si se quería

mantener el formato de los discos duros y aumentar la capacidad de los mismos, por eso se creó una forma de almacenar más datos en el mismo sector, superando los 4K (4 kilobits = 512 bytes).

Los discos duros actuales soportan Windows XP sin problemas, pero a partir de 2011 la organización que reúne a los fabricantes de discos duros empezarán a usar el nuevo 4K Advanced Format, una tecnología de la que ya hemos hablado y que aumenta la capacidad de los discos duros reordenando los datos.

Page 5: Revista TecnoVista

2

El problema llega con los sistemas operativos, bueno, con Windows XP, un sistema operativo a punto de cumplir 10 años y que todavía se sigue usando. Esta nueva tecnología no es compatible con el Advanced Format, pero en teoría, porque parece que los fabricantes darán un par de años más para actualizar equipos. Si usas Windows XP con uno de los nuevos discos duros se podrán usar sin problemas, ya que el disco duro tratará de virtualizar el nuevo formato para que sean compatibles.

Pero no es una solución, es un parche, un remedio para que los equipos antiguos o los usuarios vagos que aun no se han actualizado lo hagan. La virtualización de este sistema requiere más esfuerzo del disco duro y sus velocidades de lectura y escritura se verán afectadas, pudiendo llegar a los 5 milisegundos ya que al guardar los datos al disco duro la información tendrá que pasar por dos métodos y no uno.

Sistemas operativos modernos como Windows 7 o incluso Windows Vista, las últimas versiones de Linux y Mac OS X desde la versión Tiger son compatibles con este formato por lo que si tienes alguno de estos sistemas, no te preocupes.

Aun quedan usuarios usando Windows XP, muchos usan la excusa de que Windows es demasiado caro… bien, creo que si alguien se compró un equipo con licencia de XP incluida y lo han usado durante 9 años, ha quedado más que probado que ha sido un gasto bien invertido.

Page 6: Revista TecnoVista

3

PCI y PCI Express Desde hace varias semanas tenemos en el mercado productos PCI Express, aunque esto se

remite sólo a placas madre y tarjetas de video. Son totalmente incompatibles con nuestras

tarjetas AGP y PCI estándar, lo que implica un gasto extra en el upgrade (aunque algunas

placas madre PCI Express tienen slots PCI estándar) y las mejores tarjetas de video

aparecen sólo en formato PCI E. Pareciera que nos están obligando a cambiarnos de

plataforma.

Mejorando al alumno menos aventajado

Memorias DDR y DDR2, tarjetas Ethernet Gigabit, discos duros de alto rendimiento,

procesadores más rápidos, tarjetas de video con poder de cálculo teórico mayor incluso

que el de un procesador, placas sin controlador de memoria, x86-64 y direccionamientos

de mas de 16 hexabytes de memoria, 130nm, 90nm, 65nm, Hypertransport,

hyperthreading, Multi-core, virtualización etc... todos han mejorado en estos 10 años y el

puerto PCI se mantiene igual. En algún momento tenía que cambiar.

¿Qué es PCI?

Una definición algo gruesa sería que PCI es el canal de datos en donde se conectan los

dispositivos como tarjetas de red, discos duros, etc.

Cada dispositivo (una tarjeta de sonido, de red, de video PCI, tarjeta usb, etc) transmite

datos hacia el SouthBridge (o Host según la imagen) el cual lo reenvía al NorthBridge y

finalmente éste lo envía

al procesador. Como se

puede apreciar en la

figura, es un bus

compartido lo que

significa que sólo un

dispositivo puede

transmitir a la vez.

Trabaja a una

frecuencia de 33Mhz en

un bus de 32 bits

permitiendo transferir

hasta 133MB/seg.

Page 7: Revista TecnoVista

4

Un poco de historia

El PCI (Peripheral Component Interconnect), como lo conocemos hasta ahora, fue creado

por Intel en el año 1991 el cual se volvió estándar después de una encarnizada pelea con

el sistema de buses VLB (VESA Local Bus) el cual contaba con una interface mejorada con

respecto al ISA antiguo, con una frecuencia de 33 mhz a 32bits.

La mayor gracia del VLB con respecto al PCI es que era una extensión del mismo bus de

datos del procesador, por lo que los tiempos de acceso lo hacían un bus bastante rápido

con una velocidad final igual a la del procesador y sin necesidad de hacer escalas. Pero

esta misma virtud del VLB fue su propia perdición. Al estar sincronizado el procesador con

los dispositivos, si el procesador cambia deberás cambiar todos los dispositivos por unos

completamente distintos y más caros. Por ejemplo, si quieres upgradear tu Celeron

1800Mhz a un Pentium 4 2400Mhz entonces tendrías que cambiar también las tarjetas de

video, de red, de sonido por unas compatibles con el Pentium 4 2400Mhz que por lo

demás serían muchísimo más caras.

Esto permitió que el PCI lograra el estándar, ya que a medida que el bus de datos de los

procesadores venideros fue creciendo, se hizo poco viable el VLB ya que el fabricar un bus

de estas características era costoso y además no permitía una gran cantidad de

conexiones periféricas lo que era una limitante al momento de aglutinar varios sistemas

de entrada y salida dentro de un mismo pc.

El PCI en cambio, a pesar de su menor frecuencia de acceso, proporcionaba gran cantidad

de conexiones a una velocidad y ancho de banda decente con un costo de

implementación muy bajo, acceso directo a memoria y funcionamiento asíncrono a 25 o

33mhz lo que permitía tener procesadores mas rápidos sin necesidad de aumentar la

frecuencia de los buses PCI. Ademas de eso su estructura facilitó la introducción del Plug &

Play (o Plug & Pray para algunos), asignaciones DMA e IRQ dinámicas y la posibilidad de

que un dispositivo pudiera tomar el control del bus para dialogar entre si con otros

dispositivos disminuyendo posibilidades de conflictos y aumentando el rendimiento para

aquellos periféricos que requerían de mayor ancho de banda, como: discos duros,

sistemas de almacenamiento o sistemas de red.

Con la introducción del PCI 2.0 en el año 1993 y la aparición del Pentium el año 1994 el PCI

terminó por convertirse, definitivamente, en estándar hasta el dia de hoy.

Page 8: Revista TecnoVista

5

Page 9: Revista TecnoVista

6

Page 10: Revista TecnoVista

7

Disco óptico 3D

podrá llegar a 1 Terabyte de datos!

La empresa emergente Mempile, localizada en Israel, anunció estar en el camino para quebrar la barrera de 1 Terabyte de datos almacenados en

discos ópticos. Al contrario de los DVDS y CDS, la tecnología TeraDisc, aún en fase de desarrollo, utiliza un disco transparente, sin aquella tradicional capa reflexiva. Aún con los recientes avances de las tecnologías de láser azul, el almacenamiento óptico tiene restricciones al aumento en el número de capas que pueden ser grabadas en un único disco. Eso acontece porque la reflexión sólo parcial de las múltiples capas lleva a la reducción de la señal, aumentando el ruido y la interferencia.

Discos Ópticos 3D

En la nueva tecnología, la grabación de los datos es hecha en más de 100 capas virtuales, permitiendo una especie de almacenamiento en 3D al largo de todo el volumen del disco. La empresa ya consiguió demostrar el funcionamiento de la tecnología en discos con 0,6 milímetros de material activo. Los ingenieros de la Mempile están ahora trabajando para alcanzar un espesor de 1,2 milímetros, la misma de un DVD. La previsión es que ese objetivo sea alcanzado alrededor de 2010, cuando entonces el disco óptico transparente del espesor de un DVD tendrá 200 capas, con capacidad para almacenar 5 GB de datos cada uno - 1 Terabyte en el total.

Page 11: Revista TecnoVista

8

Microsoft

Licencia Tecnología ARM

Actualmente, más del 90 por ciento de los procesadores presentes en

teléfonos móviles están basados en arquitectura ARM. Por supuesto, su

utilización va mucho más allá

de las telecomunicaciones, y es

posible encontrarlos en

dispositivos como calculadoras,

reproductores de música, e

incluso discos duros. A través de

las licencias, grandes empresas

el universo informático han

podido acceder a esta

tecnología. Encontramos

ejemplos como Marvell y

Qualcomm, Samsung, LG,

Broadcom, y gigantes como

Apple (el A4 en el iPhone) y

Nvidia (con su Tegra). Ahora, a

esta legión se suma nada

menos que Microsoft. Si bien los

dispositivos de Microsoft no utilizan actualmente esta tecnología (salvo el

desaparecido KIN), esto ha generado varias teorías sobre cómo podrían

llegar a aplicar esta nueva licencia en Redmond.

Se pueden encontrar múltiples chips basados en la arquitectura ARM,

incluyendo al A4 que Apple utilizó para el iPhone 4

El anuncio oficial fue corto y relativamente poco sustancioso, pero no es

común que un gigante como Microsoft y alguien de casi absoluta

presencia en el mercado móvil como ARM firmen esta clase de acuerdos.

La primera teoría que ha comenzado a flotar en la red es que Microsoft

decida hacer su propia tablet. La posibilidad de que Hewlett-Packard

haga un dispositivo propio basado en el recientemente adquirido WebOS

es muy grande, por lo que en Redmond optarían por darle forma ellos

mismos.

Page 12: Revista TecnoVista

9

También se habló de una nueva edición de la Xbox utilizando chips ARM.

Los problemas iniciales de diseño en la Xbox 360 y los clásicos

inconvenientes generados por la acumulación de calor dentro de la

consola estarían entre las razones para el cambio de plataforma.

Otra teoría indica un salto hacia ARM en la próxima generación de la Xbox

Sin embargo, en este momento lo más importante para Microsoft sigue

siendo Windows 7. Desarrollar una versión de su sistema insignia para chips

ARM representaría un enorme paso a la hora de llevar los productos

Microsoft hacia la arquitectura ARM. Incluso un teórico "Windows 7 ARM"

podría volverse un sistema operativo opcional para otros dispositivos,

expandiendo su influencia. Ya que Microsoft actualmente recurre a

hardware de otros para fabricar sus dispositivos y periféricos, la posibilidad

de que algo surja de Redmond con un chip ARM en su interior no parece

muy firme, pero hay que tener en cuenta que Microsoft es la única

empresa dedicada al software que ha obtenido esta clase de licencia de

arquitectura. Las otras tres empresas, Qualcomm, Marvell e Infineon, se

dedican al aspecto del hardware. Esto sin dudas defiende la postura de

una tablet propia.

Page 13: Revista TecnoVista

10

Otras teorías quieren

ver en este contrato

una posible maniobra

para extender el

próximo Windows 8 a

plataformas basadas

en ARM. La teoría no

es trivial, Windows 7 se

ha demostrado un

excelente sistema

operativo incluso para

los netbook, pero la

plataforma X86

presente en estos y en

el resto de PCs con

Windows está compitiendo en desventaja con los dispositivos basados en

ARM en mercados como los tablet pequeños o slates y los smartphones.

El desarrollar una versión de Windows 8 en ARM permitiría a Microsoft

extender la plataforma a más dispositivos con menos consumo y un

tamaño reducido e incluso unificar Windows Mobile 8 con Windows 8 en sus

smartphones y otros dispositivos como tablets. Las ventajas son evidentes,

en el caso de la experiencia de uso unificada, en el desarrollo de

aplicaciones y muchos otros detalles.

El caso es que lo poco que se sabe de Windows 8 encaja en parte con esta

teoría. Windows 8 hará un uso intensivo de la virtualización, eso permite

que se puedan desarrollar núcleos compactos de Windows 8 (uno para la

plataforma X86, otro para ARM) que puedan funcionar como base de esa

plataforma de máquinas virtuales donde funcionarían las aplicaciones de

forma independiente al tipo de procesador. En mayo de 2009 los

representantes de ARM ya mencionaban la posibilidad de desarrollar

Windows que funcionaran sobre la plataforma ARM.

Sin embargo y bajando un poco de la nube, lo más probable es que

Microsoft pretenda con este acuerdo buscar una mayor optimización de

Windows Phone 7 sobre la plataforma ARM y sus variantes a la vez que

también potencia la de sus Windows embebidos, que están cobrando una

gran importancia en la cuenta de resultados de Microsoft.

Page 14: Revista TecnoVista

11

Intel Core i7-980X Extreme Edition Nueva vuelta de tuerca por parte de Intel, esta vez destinada a la gama alta de sus procesadores y a seguir manteniendo su reinado en todos los campos, tanto en rendimiento por MHz como en rendimiento por procesador o capacidad de ejecución multhilo. Llega así el Core i7-980X Extreme Edition, el que se había rumoreado como un posible Core i9, nomenclatura que Intel ya ha dicho que sólo fue un rumor infundado. Se supone que será el procesador más potente del mercado durante, quizá, todo lo que queda de año.

Lo primero que podemos contar es que se trata del primer procesador para sobremesa de Intel con 6 núcleos nativos, utilizando el núcleo Gulftown. Se llamará Core i7-980X Extreme Edition y como su nombre indica pertenece a la gama selecta de Intel al que sólo algunos son capaces de alcanzar con su sueldo. Se trata más de un producto pensado para webs, análisis, demostraciones y la etiqueta de "tenemos el procesador más potente del mercado". Aparte de los que puedan permitirse el desembolso de un procesador de esta gama, la cual siempre mantienen el mismo precio.

Tal y como hemos dicho el procesador pertenece a la gama Extreme Edition y por lo tanto viene con el

multiplicador desbloqueado. Así pues, no falta demasiado para ver noticias sobre overclocks extremos a este procesador y récords de varios tests conocidos, como puede ser SuperPI en su versión para X núcleos o con 3DMark, etc.

A pesar de llevar 6 núcleos el nuevo procesador de Intel no se olvida de las tecnologías que disponen otros procesadores de la familia Core i7, como es el Turbo Boost y el Hyper-Threading.

Intel Tick-Tock

El procesador Core i7-980X utiliza la nomenclatura interna bautizada como Gulftown de la cual también deriva los Xeon de 6 núcleos. Pertenece a la serie o microarquitectura Nehalem y en concreto en la segunda revisión de dicha arquitectura, lo que llamaríamos familia, conocida como Westmere a la que ya pertenecen otros procesadores como los Core i3 y Core i5 bautizados como Clarkdale y Arrandale. Así pues, todos los Westmere son la segunda revisión de los Nehalem en lo que intel llama proceso Tick-Tock.

Page 15: Revista TecnoVista

12

El proceso de evolución Tick-Tock de Intel ya lleva con nosotros algunos años, y está explicada en la propia web del fabricante, pero básicamente se basa en cambiar de arquitectura con el "Tock" y luego reducir el tamaño de fabricación con el "Tick", así se corren menos riesgos de realizar dos cambios en un único paso.

Si estamos en el Tick esto significa que hemos cambiado de proceso de fabricación y el nuevo Core i7-980X está fabricado a 32nm, igual que los Core i3 y Core i5 con VGA integrada.

Durante la presentación varios medios preguntamos acerca de los planes de Intel para pasar los Core i7 de 4 núcleos, Lynnfield y Bloomfield a 32nm y desde Intel nos respondieron que no había planes para hacerlo. De hecho es posible que el único procesador Nehalem de 32nm sin VGA integrada sea el que estamos viendo hoy, ya que no hay ni previsión de lanzar más procesadores de 6 núcleos para el mercado doméstico basados en dicha microarquitectura. Que no haya planes no significa que no vaya a ocurrir, simplemente que no está anunciado internamente y por lo tanto los responsables de Intel o no quieren decirlo o directamente desconocen el dato.

Page 16: Revista TecnoVista

13

USB 3.0, la nueva tecnología que acelera las

transferencias de datos

Se ha demorado más de lo previsto, pero el nuevo estándar de conexión ya está en marcha. El USB 3.0, que ofrece una velocidad superior de transferencia de datos, comienza a abrirse paso en el ámbito empresarial. Productos de corte profesional, entre los que pueden encontrarse portátiles de gama alta o discos duros externos, lo están introduciendo en el mercado.

Con un rendimiento teórico que se sitúa diez veces por encima de su predecesor, esta tecnología permite reducir los tiempos de espera en intercambios o duplicados de archivos, con el consecuente beneficio en productividad. Es su principal aporte, pero no el único.

En la práctica, los primeros accesorios que están incorporando USB 3.0 (también conocido como SuperSpeed USB) ofrecen un rendimiento real entre dos y tres veces superior al de la versión anterior. Por ejemplo, trasladar un volumen de ficheros equivalente a 10 GigaBytes apenas le llevaría entre tres y cuatro minutos (en lugar de diez). Así es por el momento. No obstante, le sería posible alcanzar tasas máximas de 5 GigaBits por segundo, frente a los 480 MegaBits del USB 2.0. Sería como multiplicar por diez la velocidad de transferencia.

Page 17: Revista TecnoVista

14

La tecnología ha sido desarrollada por el USB Implementers Forum, que ha creado dos versiones distintas del conector. El primero de ellos, el tipo A, es idéntico al USB 2.0, sencillamente etiquetado con color azul para diferenciarlo del antiguo estándar.

El tipo B sí es algo diferente, ya que introduce pines de conexión adicional. A su vez, existe una tercera variante algo más pequeña, denominada tipo

micro B.

Como consecuencia, todos los dispositivos 2.0 funcionan en conectores 3.0, pero sólo los de tipo A son retrocompatibles en puertos 2.0.

Lógicamente, sólo se puede beneficiarse de su velocidad mejorada si todos los elementos implicados (accesorio y puerto con su correspondiente controlador) corresponden a la especificación SuperSpeed. En caso contrario su funcionamiento será idéntico al del USB 2.0.

Además, para aprovechar al máximo su rendimiento, la longitud del cable no debe superar los 2,7 metros de longitud (la mitad que en el caso de los 2.0). A cambio, son capaces de conducir hasta 400 miliamperios de electricidad más. Es así como puede alimentar a ciertos dispositivos cuyo consumo no podía ser abastecido con el estándar previo, como discos duros de 3,5 pulgadas, cámaras de vídeo en incluso monitores. El SuperSpeed USB ofrece asimismo tres niveles de consumo y no tiene por qué estar permanentemente malgastando energía.

Hasta la fecha, el chip controlador de NEC es el único que permite combinar los USB 2.0 y 3.0, aunque compañías como Symwave, Fujitsu o Via ya trabajan en sus propios modelos. Sorprendentemente, Intel no planea implementarlo hasta 2011. En cuanto a sistemas operativos, tanto Windows Vista como Windows 7 ofrecen soporte para el mismo. También es compatible con Linux. Por su parte, Apple todavía no se ha posicionado, y se desconoce si finalmente lo adoptará como estándar.

Page 18: Revista TecnoVista

15

Nvidia saca el software 3DTV Play

para que uses tu ordenador como

fuente de contenidos 3D

Nvidia, que ha sido de las primeras (y más listas) marcas en apuntare a todo lo que huele a tres dimensiones, ha presentado un software para facilitar la llegada de contenido 3D procedente de ordenadores a nuestro televisor.

Pero cuidado, el software Nvidia 3DTV Play no hace milagros y seguiremos necesitando una larga cadena: ordenador con las gráficas Nvidia compatibles, un televisor 3D y las gafas activas, además del contenido. Esta solución de Nvidia facilita pues que si tenemos un ordenador preparado para las tres dimensiones, podamos conectarlo con fiabilidad a una pantalla más grande donde disfrutar de ese contenido o juegos en tres dimensiones.

La solución Nvidia 3DTV Play soporta las especificaciones HDMI 1.4 y puede trabajar con gafas tanto activas como pasivas. De momento la marca ha llegado a un acuerdo con Panasonic para que la experiencia con sus televisores 3D sea completa, asegurando la compatibilidad total de su sistema y gafas polarizadas.

Este software estará disponible pronto por unos 30 euros, aunque vendrá de forma gratuita en aquellos kits 3D Vision con gráfica y gafas 3D de Nvidia. Con él, nos aseguran que podremos reproducir contenidos 3D de un disco Blu-Ray usando aceleración de la GPU, o ver películas 3D en streaming.

Page 19: Revista TecnoVista

16

Page 20: Revista TecnoVista

17

Productos AMD para el 2010 y 2011

Se ha recibido información acerca de los nuevos procesadores de AMD para los próximos años, información oficial y que, exceptuando los clásicos retrasos que estos productos suelen sufrir a la hora del lanzamiento final, debería cumplir los plazos de los que hablamos.

De entre todos los nombres en clave que AMD nos ha comentado hay que destacar la arquitectura Bulldozer, pensada para el año 2011 y que pretende servir tanto al sector doméstico como al profesional. Su principal ventaja, ser de alto rendimiento, quizá una nueva generación de chips Phenom bajo el nombre de AMD Phenom III. Quién sabe.

Antes de Bulldozer, en 2010 tendremos lo siguiente:

Plataforma Danubio: para portátiles, hasta 4 núcleos y autonomía de hasta 7 horas.

Plataforma Nilo: para portátiles ultrafinos, posiblemente una nueva generación de procesadores AMD Turion.

Plataforma San Marino y Maranello: destinado a ordenadores servidores, con modelos de 8 y 12 núcleos de proceso.

Plataforma Leo: para el mercado doméstico, los esperados procesadores de 6 núcleos de los que ya hemos hablado bajo el nombre en código Thuban.

Page 21: Revista TecnoVista

18

Y de cara a 2011 veremos esto:

Plataforma Bulldozer y Bobcat: una nueva plataforma de alto rendimiento, con Bulldozer para sobremesas (domésticos y servidores) y Bobcat para portátiles. Se dice que implementará el juego de instrucciones SSE5 y que traerá unos consumos muy ajustados, entre 10 y 100 vatios dependiendo del modelo escogido.

Plataforma Llano: para portátiles y sobremesas domésticos, el esperado combo de CPU y GPU en el mismo chip, o lo que hace tiempo habíamos llamado AMD Fusion.

Plataforma Brazos: será la plataforma Bobcat pensada para netbooks o ultraportátiles. Baja potencia, bajísimo consumo.

Plataforma Zambezi: procesadores desarrollados sobre los Bulldozer pero con hasta 8 núcleos.

Antes de nada, tenemos que tener bien en cuenta que esto es un conjunto de productos previstos para ser lanzados a lo largo de los próximos dos años. Seguramente (estoy seguro al 90%) alguno de ellos sufra algunos retrasos que los lleven a ser lanzados de cara a 2012. Pero es lo que hay y poco podemos hacer los consumidores. Destacar Leo, que hará llegar los primeros procesadores domésticos de 6 núcleos, así como Bulldozer por ser una arquitectura nueva y que promete un altísimo rendimiento. Y por supuesto, a ver en qué queda Llano y en qué ha evolucionado aquella AMD Fusion de la que empezamos a hablar en octubre del 2006.