la historia de la geforce ( tarjetas graficas nvidia)

Tema en 'Cementerio De Temas' iniciado por wintendox, 26 Oct 2009.

Estado del Tema:
Cerrado para nuevas respuestas
  1. wintendox

    wintendox Usuario Casual nvl. 2
    37/41

    Registrado:
    26 Ago 2009
    Mensajes:
    1.098
    Me Gusta recibidos:
    10
    GeForce

    GeForce es la denominacion que tienen las placas de video que cuentan con unidades de procesamiento grafico (GPU) (Graphics Processing Unit) desarrollados por la empresa estadounidense NVIDIA. Su introducción en el mercado valió la incorporación de la entonces casi desconocida firma como la compañía líder del sector. Hasta 2008,la serie GeForce ha conocido nueve generaciones. Los procesadores Quadro son versiones profesionales de estas unidades. Actualmente existen unidades GTX Series (260 y 280) que superan incluso a las GeForce Serie 9 de doble nucleo con un 200% de performance superior aunque en un solo nucleo.

    Varios fabricantes utilizan estos procesadores para crear tarjetas graficas, En las cuales cabe destacar - XFX - EVGA - ASUS - ZOGIS

    La competencia directa de GeForce son las ATi Radeon, ATi es la principal competidora de NVIDIA que lleva varios años en el mercado y recientemente fue adquirida por el fabricante de microconductores y (principalmente) procesadores, AMD. La gran diferencia entre las GeForce y las Radeon es no solo sus nomeclaturas si no que ademas existe una gran incompatibilidad en sistemas operativo linux por parte de las ATi.


    GeForce 256


    Año de lanzamiento: 1999

    Versión DirectX: 7.0

    Número de transistores: 23 millones

    Características destacadas:

    * Procesador de 256 bits

    * Aparece el GPU: Procesador gráfico compuesto de un solo chip con capacidad necesaria para montar/recortar y renderizar triángulos, con soporte de T&L en hardware, todo esto capaz de trabajar en conjunto con un rendimiento igual o mayor a 10 millones de polígonos por segundo.

    * Soporte hardware de Transform & Lighting

    * Soporte de Cube Enviroment Mapping (cube mapping)

    * Implementación de memoria DDR (última versión)

    NVIDIA acuñó el término GPU (Graphics Processing Unit -unidad de procesamiento de gráficos-) para describir a un procesador gráfico moderno. El GeForce256 tuvo un relativo éxito, pero sólo en tarjetas gráficas caras pensadas para un usuario exigente o como tarjeta de desarrollo profesional barata. Su máximo competidor fue el primer procesador Radeon de ATi Technologies. ATi pensó el término VPU (Visual Processing Unit -unidad de procesamiento visual-) para referirse a sus GPUs; por lo tanto, GPU y VPU son sinónimos.


    GeForce 2


    Año de lanzamiento: 2000

    Versión DirectX: 7.0

    Número de transistores: 25 millones

    Características destacadas:

    * Motores independientes de hardware Transform & Lighting de segunda generación
    * Rasterizador shading integrado (Shaders "ancestrales", no tuvieron mucho uso)
    * Procesador de vídeo de alta definición integrado (HDTV)
    * Controlador de memoria DDR (excepto MX)

    La segunda generación del procesador NVIDIA vino marcada por un enorme éxito comercial y tecnológico. El GeForce 2 fue el procesador doméstico de gráficos más potente de su tiempo desbancando efectivamente a la competencia. La serie MX, de bajo coste, está entre las tarjetas gráficas más vendidas de la historia. Una versión prematura de GPU para ordenadores portátiles, el GeForce 2 Go, señaló la introducción de NVIDIA en este sector.

    [​IMG]


    GeForce 3

    Año de lanzamiento: 2001

    Versión DirectX: 8.0

    Número de transistores: 57 millones

    Características destacadas:

    * Vertex Shader y Pixel Shader programables
    * Optimización del bus de memoria (LightSpeed Memory Architecture)
    * Incorporación de multisampling anti-aliasing

    El procesador GeForce 3 fue lanzado prácticamente sin competencia real, ya que por parte de las compañías rivales no había un producto con similares características, siendo siempre un producto de gama alta del que nunca se desarrolló una versión económica. Asimismo, se trata del primer GPU programable con implementación nativa a la primera versión de DirectX 8. La consola X-Box presenta una implementación de este procesador para su soporte gráfico llamado NV2A, idéntico al GeForce 3 Ti500 pero con 2 unidades de proceso vertex paralelas en lugar de una.

    Revolucionó toda una era en el campo de los juegos de PC y obtuvo la atención de los ojos del mundo hacia la corporación NVIDIA.


    GeForce 4


    Año de lanzamiento: 2002

    Versión DirectX: 8.1

    Número máximo de transistores: 63 millones

    Características destacadas:

    * 2 unidades Vertex Shader programables (estructura de pipeline 4x2)
    * Pixel shader 1.3 (Por no soportar PS 1.4 -la Radeon 8500 si lo soportaba- no se considera una GPU compatible con DirectX 8.1)
    * Nativa en slot AGP 4x de 1.5v (versiones muy limitadas se manufacturaron en tipo PCI)
    * Soporte de visualización dual (NView)
    * Controlador mejorado de memoria hasta 650 Mhz DDR (LightSpeed Memory Architecture 2)
    * Primera generación en soportar el bus AGP 8X (últimas versiones)

    En la cuarta generación del procesador GeForce cabe distinguir entre la "auténtica" iteración, la familia GeForce 4 Ti de gama alta (alto rendimiento y desempeño) y la serie de bajo coste GeForce 4 MX (Lo único de GeForce 4 que tenía esta serie de placas era el nombre: eran nada más y nada menos que una GeForce 2 con algunos agregados como soporte AGP 8x, un controlador de memoria mejorado -proveniente de la GeForce 4 real- y un rudimentario procesador de video, entre otros). La GeForce 4 Ti encontró rápidamente un hueco entre los usuarios de gráficos de alto rendimiento y fue extremadamente popular mientras que la serie MX, a pesar de su alargado éxito comercial, fue duramente criticada por la carencia de soporte PS/VS (al ser una GeForce 2 revitalizada) y por el uso abusivo del nombre comercial GeForce 4 que indujo a confusión a muchos usuarios. Se produjeron versiones para portátiles de la serie MX llamada GeForce 4 Go y una única adaptación que viera producción de la serie GeForce 4 Ti para portátiles, el GeForce 4200 Go.

    [​IMG]


    GeForce FX


    Año de lanzamiento: 2003

    Versión DirectX: 9.0 ó 9.0b

    Número máximo de transistores: aprox. 125 millones

    Características destacadas:

    * Primer procesador en usar memoria DDR 2 (posteriormente hasta GDDR 3)
    * Soporte Vertex Shader 2.0+ y Pixel Shader 2.0+
    * Codificador de TV integrado
    * Implementación mejorada de compresión de texturas y técnicas-Z
    * Hasta 16 texturas por pixel

    NVIDIA abandonó la tradicional nomenclatura de sus procesadores en favor del llamado motor FX que iba a permitir a los usuarios de GeForce FX disfrutar de un avanzado motor de efectos y shaders programables. No obstante, desde las primeras muestras se comprobó que la gama alta de la serie FX rendía generalmente por debajo de su competidor la serie Radeon 9 de ATI en parte debido a fallos en los drivers y en parte a deficiencias en el diseño; y todo ello a pesar de haber salido al mercado seis meses más tarde. Además, un escándalo relacionado con modificaciones en los drivers (que también salpicó a su competidora, ATI) destinadas a falsear los resultados obtenidos en el popular programa de pruebas 3DMark 2003 adquirió tal notoriedad que provocó la caída de este programa como primer exponente de programas de prueba.

    En la gama baja, las GeForce FX5200/FX5600 rendían generalmente por alto de sus competidoras Radeon y, lo mejor, el rendimiento por píxel de la GeForce FX5200 resultaba superior al de la tarjeta que supuestamente iba a sustituir, la serie GeForce4 MX basada en DirectX 7 y sin soporte de Pixel Shaders. Posteriormente, la introducción de las FX5700 y su equivalente Ultra trataron de enfrentarse a la potente serie Radeon 9600 de ATI, obteniendo resultados dispares. Mientras el rendimiento por pipeline de las FX5700 era técnicamente superior a su contrapartida Radeon, arrastraban todos los defectos de la deficiente implementación del lenguaje de shaders 2.0 de Microsoft que presentaba la serie FX.

    Irónicamente, la GeForce FX fue un esfuerzo conjunto de las mentes brillantes de NVIDIA y 3dfx -comprada por NVIDIA a fines del 2000-, y todos sabemos como terminó 3dfx -fue el gigante del mundo de las placas de video por años, pero la falta de nuevas características, ideas y el malgasto de sus fondos los llevaron a la ruina;[cita requerida] lo que supuso que por primera vez la compañía rival ATI dominara casi en todos los frentes el mercado de procesadores gráficos. Cabe destacar un cambio de política de márketing crucial que adoptaron ambas compañías en este período y que aún se mantiene en el mercado actual, a saber: lanzar múltiples versiones de un mismo procesador gráfico para de esa manera copar el mercado, en lugar del enfoque tradicional de cubrir los segmentos de mercado principales (OEM, y gamas baja, media y alta) con un número discreto de productos. Así por ejemplo nos encontramos, de acuerdo a esta tendencia, con hasta seis versiones de la Serie FX distintas de un mismo procesador, el FX5900: FX5900, FX5900XT, FX5900SE, FX5900 Ultra y FX5950 Ultra. Posteriormente, NVIDIA se adelantó al mercado desarrollando versiones de sus procesadores FX5200, FX5700 y FX5900 en el bus PCI Express; para el que no existía entonces una gama de productos. Fueron respectivamente los modelos PCX5300, PCX5750 y PCX5900.

    Los importantes problemas de temperatura junto al enorme tamaño del microprocesador en sí impidieron a NVIDIA desarrollar una GPU para equipos portátiles basada en los procesadores más potentes de la serie FX, por lo que sólo existieron dos productos portátiles: GeForce FX5100 Go y FX5200 Go, ambos basados en el FX5200 de sobremesa.

    Determinando así que gracias a la vanguardia de los proveedores y científicos lograron desarrollar un producto de fácil acceso y de un éxito garantizado


    GeForce 6

    Año de lanzamiento: 2004

    Versión DirectX: 9.0c

    Número máximo de transistores: 222 millones

    Características destacadas:

    * Primer procesador en soportar Vertex Shader 3.0 y Pixel Shader 3.0
    * Arquitectura de 16 pipelines paralelos (en modelos 6800 Ultra y GT)
    * Introducción del soporte multiprocesador mediante SLI
    * Mejoras sustanciales en los shaders programables
    * Decodificación de vídeo por hardware (PureVideo (NVIDIA)).
    * Mejoras en filtrado anisotrópico (hasta 16X) y técnicas antialias (8X)
    * Tratamiento de datos de 128 bits en pipeline
    * Desentrelazado de vídeo adaptativo
    * Implementación en hardware de buffers FP16 capaces de hacer varias operaciones como combinación y filtrado. Estos buffers permitieron a NVIDIA implementar un nuevo tipo de iluminación denominado HDRL (High Dynamic Range lightning).

    Recuperándose espectacularmente de los fallos técnicos de la gama FX, la sexta generación de procesadores GeForce mostraba un incremento efectivo del rendimiento de hasta el 65% en aplicaciones DirectX (comparando el 6800 Ultra con el FX 5950 Ultra). El GeForce 6 y el Radeon X inicia, para muchos, otra "edad dorada" para el proceso de gráficos; ya que hasta cerca de 2 años después de su lanzamiento aún no se ha exprimido el verdadero potencial de muchas de las características clave de estos procesadores. A fecha de 2005, apenas un puñado de aplicaciones soportaban Pixel Shader o Vertex Shader de tercera generación.

    También marcó esta generación la feroz competencia con ATi Technologies - hasta tal punto se consideró objeto de debate qué producto era superior, desencadenando discusiones tan largas como improductivas en foros y listas de correos, que muchos sitios especializados prohibieron explícitamente plantear la cuestión como fue el caso de los foros de AnandTech. Se produjeron tres familias de la sexta generación, la 6200, 6600 y la 6800. Es generalmente aceptado que la versión más rápida de la 6600, el procesador 6600GT desempeña aproximadamente un 50% del máximo exponente de la 6800, el 6800 Ultra. La sexta generación, coincidiendo con el auge de la industria de los equipos portátiles, es la que más modelos presenta para este sector. Existen el GeForce Go 6200, 6400, 6600 y el 6800. Este último representa el procesador gráfico para ordenadores portátiles más potente creado hasta 2005 - se calcula que desempeña sobre el 70% que su homónimo de escritorio.

    Posteriormente, NVIDIA integró una GPU (la NV44, también conocida como GeForce 6200 TurboCache)en uno de sus chipsets. Estas GPU integradas se conocen como GeForce 6100 y 6150 las cuales tienen un rendimiento de 1200-1300 3DMarks03, indicador suficiente para darse una idea de su rendimiento.

    Además, la gama 6150 provocó en varias series de ordenadores portátiles de HP de sus series Pavilion V3000 y V9000, y Presario V6000 una serie de fallos por los que fallaban los gráficos, desaparecía el dispositivo wireless del ordenador, procedía a sobrecalentarse por encima de los 70 grados y llegaba a los 100º, momento en que el ordenador ya no se podía volver a encender. Ni HP ni Nvidia se responsabilizaron del problema, y millones de clientes afectados se vieron en las manos con un armatoste que les había costado 1000 euros. En un futuro se preparan acciones legales por negligencia y estafa, dado que una vez que se conocieron los problemas siguieron vendiendo ordenadores con estos procesadores incluídos, conscientes de que a los 6 meses se estropearían.


    GeForce 7


    Año de lanzamiento: 2005

    Versión de DirectX: 9.0c

    Número de transistores: 302 millones (G70), 281 millones (G71)

    Características destacadas:

    * Nombre código del GPU : G70 (Se ve un cambio en el nombre código de la GPU -de NVxx a Gxx-)
    * Arquitectura de 24 pixel pipelines paralelos
    * Arquitectura de 7 vertex pipelines paralelos
    * Bus de Transferencia: PCI-Express y AGP 8X/4X
    * Tecnologías CineFX e IntelliSample de cuarta generación
    * Decodificación de vídeo H.264, MPEG-2 y WMV por hardware (PureVideo (NVIDIA))
    * Soporte de técnicas TSAA/TMAA (Transparency Supersampling/Multisampling Antialiasing)
    * El rendimiento de una 7800GTX supondría un incremento en torno al 25-35% frente al modelo 6800Ultra o incluso algo más en la medida en que escalamos resoluciones.

    Siguiendo un patrón parecido al observado en los momentos iniciales de la gama GeForce 4 Ti, NVIDIA decidió lanzar la séptima generación de su GPU GeForce aun cuando la anterior seguía considerándose de gama alta. La serie anterior de placas de alta gama basada en G70 (GeForce 7800 GTX) fue fabricada con un proceso de 110 nm. La serie que las reemplazó, basada en G71 (GeForce 7900 GTX) es fabricada con un proceso de 90 nm y a la vez reduciendo el número de transistores a aproximadamente 280 millones. El GeForce 7 es una revisión de su predecesor aumentando notablemente el número de pipelines de 16 a 24, y cambios en los pixel pipelines, haciéndolos un 50% más eficientes. De momento existen varios modelos de esta generación: el 7800 GTX, 7800 GT, 7900 GT y 7900 GTX de gama alta y los recientes 7600 GT de gama media todos en el bus PCI Express.

    Se ha considerado en comunidades de alto rango tecnológico que NVIDIA desarrollo esta nueva familia de GPUs (unidades de procesamiento gráfico) como una GeForce 6 mejorada y optimizada para mejor rendimiento frente a los inminentes cambios de sistemas operativos y lenguajes de programación para juegos, ya existen versiones que cuentan con 256MB o 512MB de memoria e incluso ya salió al mercado la GeForce 7950GX2, nada más ni nada menos que 2 procesadores G71 con 512MB de memoria cada uno, interconectados mediante una tecnología similar a SLI,pero solo necesita un solo conector pci-express x16. La diferencia en desenvolviemiento entre la serie Geforce 7800 y la serie GeForce 7900 es aproximadamente de un 35% en la mayoría de aplicaciones actuales (fecha 05-06) por lo que se considera una sustitución de la serie 7800.

    En esta serie también se Agrega otra Tarjeta la 7800GS para Bus de AGP esto da un gran avance en tecnología para el Puerto que ya se creía obsoleto, al igual que sus Primos la 7800GS cuenta con el GPU G70 de última Generación para el puerto AGP con un Núcleo base de 375Mhz y Memoria a 1200 Mhz la convierte en la tarjeta más sofisticada para AGP por parte de NVIDIA

    Situación similar ocurrió en el lanzamiento del GPU Geforce FX 5800 hace un tiempo, la serie fracasó por tener menor desempeño que la competencia del momento de ATi (Radeon 9700 Pro). Entonces, NVIDIA decidió relanzar la GeForce FX como FX 5900 y esta nueva gama a su vez sufrió siempre de problemas y limitaciones, caso similar al ocurrido con la serie GeForce 7800 ---> GeForce 7900, el principal problema de esta serie es su nivel de temperatura y los problemas que presenta la arquitectura trabajando con aplicaciones en el modo SLI, problemas que han causado el retraso de una serie de nuevos productos como la mencionada Geforce 7950 GX2 la cual cuenta con dos procesadores tipo G71 ( el "mejorado" ) y 1GB de memoria GDDR 3 de segunda generación (estable hasta 1800mhz), así como su experimental implementación en plataformas de laptops de alto desempeño.

    El poder de NVIDIA en custiones de mercado, quedo patente cuando Sony le pidió que desarrollara el chip gráfico para su consola PlayStation 3. El RSX, nombre de este chip para Sony, se basa en la aqruitectura del G71, aumentando de mhz, y desarrollando su pontencial real, al ser un circuito cerrado.

    Diferencias tecnológicas respecto al NV40 (GeForce 6) [editar]

    La arquitectura conocida como NV40, en la que se basan las 6800 y el resto de GPUs posteriores a éstas, es sin duda una de las más exitosas en la historia de NVIDIA. El G70, pese al cambio de nomenclatura, sigue siendo un descendiente bastante directo, como veremos, del célebre NV40.

    Si echamos la vista atrás, el G70 a principios de su desarrollo era conocido como NV47, un nombre clave más adecuado para situarlo en la cadena evolutiva de NVIDIA.

    En cuanto a novedades, a grandes rasgos serían:

    * más potencia bruta gracias a los 8 pipelines y 2 vertex shader adicionales, que funcionan a frecuencias ligeramente superiores. Además se ha mejorado la eficiencia de dichas unidades. El G70 ahora puede procesar 24 píxels por ciclo frente a los 16 anteriores.
    * se incluye un nuevo modo de Antialiasing para texturas transparentes.
    * el G70 puede utilizar compresión 3Dc para mapas de normales.
    * mejora de eficiencia en los saltos condicionales (branching dinámico)

    Las nuevas unidades píxel shaders [editar]

    Las unidades píxel shader del G70 han ganado una nueva funcionalidad que les permite ejecutar más instrucciones simultáneamente. Es conocido que las GeForce 6 disponen de dos unidades para el cálculo de shaders (ALUs) en cada píxel pipeline. El problema es que una de esas unidades tiene sus funcionalidades recortadas, por lo que no podría ejecutar determinadas instrucciones que la otra unidad “completa” sí puede. Para concretar más, una operación muy común en los algoritmos 3D es una multiplicación seguida de una suma (X'Y+Z), eso se conoce como MAD (multiply addition – multiplicar y sumar). La unidad “tonta” del NV40 no podría realizar ese MAD, mientras que en el G70 ambas unidades son “listas” y pueden ejecutar MADs. De esa manera, NVIDIA ha pretendido hacer creer que la potencia de cálculo del G70 se duplica por cada pipeline respecto al NV40, pero eso no es del todo cierto ya que en el cálculo de píxel shaders no sólo existen MADs. En ese caso concreto sí se duplica, por lo que en determinadas aplicaciones que estén limitadas por el cálculo de shaders ( y utilicen muchos MADs) se pueden ver incrementos de rendimiento espectaculares.

    Por otra parte, el máximo teórico de instrucciones procesadas por cada pipeline y en cada ciclo es el mismo en el NV40 y G70, pero en la práctica el G70 se va a acercar mucho más a ese máximo teórico gracias a lo que hemos explicado.

    Además, debemos de señalar que el G70 puede procesar 24 píxeles por ciclo, pero no puede obtener 24 muestras de texturas para esos píxeles por cada ciclo. Eso se debe a que dispone de sólo 16 ROPs (rasterize operations), de manera que si por cualquier circunstancia le llegasen 24 píxels procesados de los pipelines, sólo podría texturizar 16. Realmente no supone ningún problema, el NV43 (6600) ya dispone de una configuración similar (8 pipelines/ 4 ROPs). Es sumamente improbable que se puedan procesar 24 píxeles por ciclo en juegos modernos donde la carga de shaders es grande y las unidades shaders difícilmente pueden procesar un píxel por cada ciclo.

    Nuevo antialiasing para texturas transparentes [editar]

    Las texturas transparentes -con canal alpha- muestran bordes dentados debido a que cuando activamos el MSAA (multi sampling anti aliasing) sólo se aplica AA a los bordes de los triángulos. Para remediarlo tendríamos que activar el FSAA (full scene antialiasing) de las gráficas NVIDIA, pero su rendimiento lo convierte en inservible cuando usamos juegos muy actuales. NVIDIA ha remediado este problema creando un modo de AA inteligente que aplica FSAA sólo a las texturas transparentes, mientras que para el resto de la escena utiliza el tradicional MSAA. Esto es a grandes rasgos el Transparency AA.

    Compresión de normal maps [editar]

    La primera compresión de mapas de normales conocida es 3Dc, un algoritmo que ATI implementó en las X800. Los mapas de normales se han convertido en un elemento imprescindible de todos los motores gráficos actuales, son una versión más avanzada de los mapas de rugosidad tradicionales (bump map). NVIDIA realmente no soporta la compresión 3Dc, pero sí un formato similar (V8U8). Para asegurar la compatibilidad, los drivers convierten las texturas 3Dc al formato del G70. De esta manera, NVIDIA soporta el 3Dc de forma indirecta. El V8U8 sólo consigue una compresión 2:1, es decir, inferior al 4:1 del 3Dc. Aunque NVIDIA no ha publicitado esta característica apenas, podemos constatar que juegos como Far Cry detectan soporte de 3Dc en la 7800 GTX.

    Mejor branching dinámico [editar]

    Otra mejora respecto a eficiencia vendría cuando se usan instrucciones condicionales (branching dinámico). El branching dinámico en los píxel shaders es la gran novedad que incorpora el shader Model 3.0 respecto a versiones anteriores. Los desarrolladores, en función de determinadas condiciones que comprueba la GPU, pueden hacer que no se ejecute porciones de código no necesarias en determinadas escenas. Eso puede suponer un gran ahorro de potencia en el cálculo de shaders. Ejemplo: las sombras suaves (del Splinter Cell CT) se calculan con píxel shaders, pero sólo se necesita aplicar dicho método a los bordes de la sombra. ¿Cómo sabe la GPU si está aplicando el shader al centro de la sombra o a un borde? Se necesita una instrucción condicional que guíe el proceso.

    El problema es que el branching supone una pérdida de rendimiento por su utilización por la forma en que NVIDIA lo implementó. Los condicionales se procesan bloques de 1000 píxeles, lo cual es demasiado para resultar eficiente. Esa pérdida suele compensar a la pérdida mucho mayor (no siempre debido a la pobre implementación de NVIDIA) de ejecutar un shader a lo “bruto”, como sería el caso del ejemplo anterior si hubiese que hacer sombras suaves aplicándolas a partes donde no son necesarias. NVIDIA ha conseguido limitar ligeramente esa pérdida rendimiento respecto al NV40.

    Para finalizar este pequeño repaso, el G70 dispone de una mejora en la monitorización interna de sus temperaturas. Gracias a esto es capaz de ajustar por sí mismo las revoluciones de los ventiladores.
    [​IMG]


    GeForce 8

    Año de Lanzamiento: Noviembre 2006

    Versión de DirectX: 10

    Número de Transistores: 681 millones

    Características destacadas:

    * Arquitectura unificada, completamente diferente a los diseños anteriores.
    * Sustancial mejora en los algoritmos de AF y de AA, mejorando considerablemente la calidad de imagen comparada a los pobres resultados de las GF6/7, poniéndose a la par de ATI y su familia Radeon X1000.
    * Bus de 384 bits (con 768 MB de RAM) nunca usado hasta la fecha.
    * El GPU trae un IHS para ser protegido de las instalaciones de HSFs, por ejemplo. La última vez que NVIDIA usó esto fue con el NV30.
    * El tope de gama(8800 GTX y 8800 Ultra) requieren 2 conectores PCIe de poder con 2 tomas de poder cada uno (4 tomas en total)
    * PCB de 24 cm, el más largo jamás visto en una placa para consumo masivo (después de la 3dfx Voodoo 5 6000, que nunca se comercializó), causando problemas en varios gabinetes por el largo.

    Es un diseño de shaders unificados, sin pipelines, como "exige" el nuevo estándar DirectX 10 de Microsoft. Esto quiere decir que tiene un número de simples procesadores diseñados para trabajar con Pixel, Vertex o Geometry shaders. La carga de trabajo la distribuye el GPU mismo como sea más conveniente, aumentando la eficiencia, algo por lo que no se caracterizaban los diseños divididos en pipes.

    En los primeros meses de vida, los fallos de compatibilidad y el mal soporte de NVIDIA, con unos drivers catastróficos, han hecho que las críticas en la red se multipliquen. A fecha de Febrero de 2007, NVIDIA ha admitido que tiene problemas para dar soporte a Windows Vista, y sus gráficas rinden un 30% menos de media que en Windows XP. Esto también se debe a que dicho sistema operativo está en la etapa de "bebé", es decir los drivers y soporte no son lo suficientemente maduros. Recordemos que los drivers disponibles para Windows XP tienen años de desarrollo y perfeccionamiento; DX10 introduce un sistema de renderizado completamente nuevo, el cual las compañías tienen que dar soporte en sus drivers. A día de hoy la última versión de los drivers de NVIDIA arreglan casi todos los problemas iniciales de drivers de estas tarjetas en Windows Vista (compatibilidad con SLI y diversos problemas de estabilidad y rendimiento). La última versión oficial es la 175.19 y vienen certificados WHQL y pesa unos 72,4 MB comparados con los 1,78 de los primeros drivers.

    En su gama baja se encuentra la 8400gs seguida de la 8500GT, cuyo desempeño da bastante que desear.

    En la gama media la Serie 8600 da muy buenos resultados, aunque sus modelos con GPU G92, como la 8800 Gt, rinde casi 3 veces más, pueden actualmente en 2008 con la mayoria de los juegos existentes.

    Nvidia lanzó modelos para portátiles basados en las 8 Series, estos son el 8400M , 8600M y 8700M, versiones idénticas a las de sobremesa pero con algunos recortes en GPU y velocidad de memoria.

    GeForce 9

    Año de Lanzamiento: Febrero 2008

    Versión de DirectX: 10.0

    Número de Transistores: 754 millones

    Características destacadas:

    * Resoluciones de hasta 2560 X 1600 pixeles
    * Tecnología PureVideo® HD
    * Tecnología HybridPower™
    * Tecnología SLI® (SLI normal y 3-Way SLI)
    * Compatibilidad con PCIe 2.0
    * 65nm G94/D9M GPU
    * Soporta DirectX 10.0, Shader Model 4.0, y OpenGL 2.1
    * Soporte para el lenguaje de programacion CUDA

    Existen hasta el momento; 9600 de gama media, 9800 de gama alta y 9400,9500 para baja.

    La 9400 GT posee velocidades de core de 450 MHz, memoria de 256Mb GDDR2 a 800 MHZ y un Shader Clock de 900 MHz para 16 shaders unificados.

    La 9500 GT posee velocidades de core de 550 MHz, memoria de 256/512Mb GDDR3 a 1600 MHZ y un Shader Clock de 1400 MHz para 32 shaders unificados.

    La 9600 GT posee velocidades de core de 650 MHz, memoria de 512Mb GDDR3 a 1900 MHZ y un Shader Clock de 1625 MHz para 64 shaders unificados.

    La familia 9800 GTX posee una frecuencia de core de 675 MHz, memoria GDDR3 DE 512Mb a 2200 MHz, con un Shader Clock de 1688 MHz para 128 shaders unificados.

    La serie 9800 GX2 son básicamente dos procesadores unificados mediante una tecnología similar al SLI, con la única diferencia de que necesitan sólo un puerto PCI Express. Fue la tarjeta de dos procesadores más potente hasta que se produjo la salida de la HD 4870 X2 (la tarjeta grafica mas potente hasta la fecha), siendo una de las pocas en poder correr Crysis a una resolución alta con todas las configuraciones gráficas Muy Altas, aunque sólo en su disposición Quad-SLI (Dos tarjetas unificadas mediante SLI en un solo sistema, que gracias a sus 2 procesadores por tarjeta hacen posible un SLI de cuatro núcleos). Tiene velocidades de Core de 600 MHz (por GPU), memoria GDDR3 de 1 GB (por gpu) a un clock de de 2000 GHz, con un shader clock de 1500 MHz (por gpu).


    Tabla de especificaciones serie 9 de Nvidia (Fuente Nvidia Website)
    Reloj central (MHz) Reloj de las unidades de sombreado (MHz) Reloj de la memoria (MHz) Cantidad de memoria Interfaz de memoria Ancho de banda de memoria (GB/s) Tasa de relleno de texturas (miles de millones/s)
    9800 GX2 600 1500 1000 1 GB 512-bit 128 76.8
    9800 GTX 675 1688 1100 512MB GDDR3 256-bit 70.4 43.2
    9600 GT 650 1625 900 512MB 256-bit 57.6 20.8
    9600 GSO 550 1375 800 384MB 192-bit 38.4 26.4



    GeForce GTX

    Año de Lanzamiento: Junio 2008

    Versión de DirectX: 10.1

    Número de Transistores: 1400 millones

    Características destacadas:

    * Resoluciones de hasta 2560 X 1600 pixeles
    * Tecnología PureVideo® HD
    * Tecnología HybridPower™
    * Tecnología SLI® (SLI normal y 3-Way SLI)
    * Compatibilidad con PCIe 2.0
    * 65nm G200
    * Soporta DirectX 10.0, Shader Model 4.0, y OpenGL 2.1
    * Soporte para el lenguaje de programación CUDA

    Se trata de un chip basado en la misma arquitectura que las GeForce 8 y 9 pero con mejoras muy significativas. El chip pasa de tener 128 shaders unificados a tener 240 en la GTX280 y 192 en la GTX260. Se trata de tarjetas de gran tamaño y potencia, con las cuales nVidia pretendería competir con las HD4870 y HD4870 X2 de ATI, mientras que para competir con la HD4850 emplearia una version mejorada de la GeForce 9800, la 9800+.



    fuente= wikipedia[​IMG]
    [​IMG]
    [​IMG]
    [​IMG]
     
  2. chapaturry

    chapaturry Usuario Nuevo nvl. 1
    17/41

    Registrado:
    18 Abr 2007
    Mensajes:
    913
    Me Gusta recibidos:
    1
    inreresante aporte se agradece
     
  3. Lobo_feroz

    Lobo_feroz Usuario Casual nvl. 2
    37/41

    Registrado:
    22 Abr 2008
    Mensajes:
    2.095
    Me Gusta recibidos:
    7
    completisimo el dato socio...
    cuando tenga mas tiempo lo leo completo :D
     
  4. Hernancio

    Hernancio Usuario Casual nvl. 2
    87/163

    Registrado:
    15 Jul 2009
    Mensajes:
    7.943
    Me Gusta recibidos:
    13
  5. LuxorX

    LuxorX Usuario Casual nvl. 2
    87/163

    Registrado:
    25 Jul 2008
    Mensajes:
    8.538
    Me Gusta recibidos:
    4
    muy interesante info

    se agradece
     
  6. wintendox

    wintendox Usuario Casual nvl. 2
    37/41

    Registrado:
    26 Ago 2009
    Mensajes:
    1.098
    Me Gusta recibidos:
    10
    unca consulta como coloco un video directo de youtube cuales son los codigos
     
  7. VERBAL KINT

    VERBAL KINT Usuario Casual nvl. 2
    87/163

    Registrado:
    26 Abr 2008
    Mensajes:
    6.620
    Me Gusta recibidos:
    5
    muchas gracias excelente info
     
  8. homeroduff2

    homeroduff2 Usuario Nuevo nvl. 1
    17/41

    Registrado:
    20 Abr 2009
    Mensajes:
    689
    Me Gusta recibidos:
    8

    X2 se agradece
     
  9. deryc

    deryc Usuario Casual nvl. 2
    37/41

    Registrado:
    24 Abr 2009
    Mensajes:
    3.008
    Me Gusta recibidos:
    5
    buen aporte

    se agradece
     
  10. Evil_Vader

    Evil_Vader Usuario Casual nvl. 2
    37/41

    Registrado:
    10 Jun 2009
    Mensajes:
    4.362
    Me Gusta recibidos:
    1
    weno el dato ;)
     
Estado del Tema:
Cerrado para nuevas respuestas