Bueno Primero que todo:Necesitamos tener nuestro panel de control actualizado ( Nvidia, Intel Graphics, No probado en ATI ) ¿Para que sirve?,Para tener una mejor optimizacion del juego y mayor compatibilidad.
Si desean descargar su panel de control vallan a este link: http://www.nvidia.es/Download/index.aspx?lang=es se necesita saver que serie de placa es ,que tipo de windows tienen, que placa es la suya ( Sino lo saben vallan a ejecutar y escriban dxdiag como esta y ponen enter y si, en la parte superior de la ventana ponemos pantalla y saldra algo llamado tipo de chip y la memoria aproximada )
sino quieren buscar que serie de placa es la suya les dejo un listado ( Nota en la pagina no hay de serie 5 para abajo):

GeForce FX (5)

NVidia GeForceFX 5500.
GeForce FX 5200(128/256 MB DDR)
GeForce FX 5200 Ultra(256 MB DDR)
GeForce PCX 5300(256 MB DDR)
GeForce FX 5500(128/256 MB DDR)
GeForce FX 5600 XT(128/256 MB DDR)
GeForce FX 5600(64/128 MB DDR)
GeForce FX 5600 Ultra(256 MB DDR)
GeForce FX 5600 Ultra Rev.2(256 MB DDR)
GeForce FX 5700 VE(128,256 MB DDR)
GeForce FX 5700 LE(128,256 MB DDR)
GeForce FX 5700(256 MB DDR)
GeForce FX 5700 Ultra(256 MB DDR2)
GeForce FX 5700 Ultra GDDR3(256 MB GDDR3)
GeForce PCX 5750(256 MB GDDR3)
GeForce FX 5800(256 MB DDR2)
GeForce FX 5800 Ultra(256 MB DDR2)
GeForce FX 5900 XT(256 MB DDR)
GeForce FX 5900(128/256 MB DDR)
GeForce FX 5900 Ultra(256 MB DDR)
GeForce PCX 5900(256 MB DDR)
GeForce FX 5950 Ultra(256 MB DDR)
GeForce PCX 5950(256 MB DDR

GeForce 6

GeForce 6200(128/256 MB GDDR2)
GeForce 6200TC(16/32/64/128/256 MB GDDR2)
GeForce 6200LE(128/256 MB GDDR2)
GeForce 6200AGP(128/256/512 MB GDDR2)
GeForce 6500(128/256 MB GDDR2)
GeForce 6600LE(128/256 MB GDDR2)
GeForce 6600(128/256/512 MB GDDR2)
GeForce 6600DDR2(256/512 MB GDDR2)
GeForce 6600GT(128/256 MB GDDR3)
GeForce 6700XL(128 MB GDDR3)
GeForce 6800LE(256 MB GDDR3)
GeForce 6800XT(256 MB GDDR3)
GeForce 6800(256 MB GDDR3)
GeForce 6800GTO(256 MB GDDR3)
GeForce 6800GS(256 MB GDDR3)
GeForce 6800GT(256 MB GDDR3)
GeForce 6800 Ultra(512 MB GDDR3)
GeForce 6800 Ultra Extreme(256 MB GDDR3)

GeForce 7

GeForce 7100 GS(128/512 MB DDR2)
GeForce 7200 GS(64/128/256/512 MB DDR2)
GeForce 7300 SE(128/256/512 MB DDR)
GeForce 7300 LE(128/256/512 MB DDR2)
GeForce 7300 GS(128/256/512 MB DDR2)
GeForce 7300 GT(256/512 MB DDR2/GDDR3)
GeForce 7500 LE(256/512 MB DDR2)
GeForce 7600 GS(256/512 MB DDR2/GDDR3)
GeForce 7600 GT(256/512 MB DDR2/GDDR3)
GeForce 7600 GT 80 nm(256/512 MB DDR2/GDDR3)
GeForce 7650 GS(256 MB DDR2)
GeForce 7800 GS(256 MB GDDR3)
GeForce 7800 GT(256 MB GDDR3)
GeForce 7800 GT256 MB GDDR3)
GeForce 7800 GTX 512(512 MB GDDR3)
GeForce 7900 GS(256 MB GDDR3)
GeForce 7900 GT(256/512 MB GDDR3)
GeForce 7900 GTO(512 MB GDDR3)
GeForce 7900 GT512 MB GDDR3)
GeForce 7950 GT(256/512 MB GDDR3)
GeForce 7950 GX2(512 X 2 MB GDDR3)

GeForce 8

GeForce 8300 GS(512 MB DDR2)
GeForce 8400 GS(128/256/512 MB DDR2)
GeForce 8400 GS Rev.2(128/256/512 MB DDR2)
GeForce 8500 GT(256/512/1024 MB DDR2)
GeForce 8600 GS(256/512 MB DDR2)
GeForce 8600 GT(256/512/1024 MB DDR2/GDDR3)
GeForce 8600 GTS(256/512 MB GDDR3)
GeForce 8800 GS(384/768 MB GDDR3)
GeForce 8800 GTS (G80)( 320/640 MB GDDR3)
GeForce 8800 GTS 112 (G80)(640 MB GDDR3)
GeForce 8800 GT(256/512/1024 MB GDDR3)
GeForce 8800 GTS (G92)(512 MB GDDR3)
GeForce 8800 GT768 MB GDDR3)
GeForce 8800 Ultra(768 MB GDDR3

GeForce 9

GeForce 9300 GS(256 MB DDR2)
GeForce 9400 GT(256/512/1024 MB GDDR3)
GeForce 9500 GT(256/512/1024 MB DDR2 y GDDR3)
GeForce 9600 GSO(384/768/1536 MB GDDR3)
GeForce 9600 GSO 512(512 MB GDDR3)
GeForce 9600 GT Green Edition(512/1024 MB GDDR3)
GeForce 9600 GT(512/1024 MB GDDR3)
GeForce 9800 GT Green Edition(512/1024 MB GDDR3)
GeForce 9800 GT(512/1024 MB GDDR3)
GeForce 9800 GT512 MB GDDR3)
GeForce 9800 GTX+(512/1024 MB GDDR3)
GeForce 9800 GX2(512 x 2 MB GDDR3)

GeForce 100

GeForce G100(512 MB DDR2)
GeForce GT 120(512 MB DDR2)
GeForce GT 130(1536 MB DDR2)
GeForce GT 140(1024 MB GDDR3)
GeForce GTS 150(1024 MB GDDR3

GeForce GTX 200

GeForce GTX 260 192 SP(896 MB GDDR3)
GeForce GTX 260 216 SP(896 MB GDDR3)
GeForce GTX 280(1024 MB GDDR3)

GeForce 300

GeForce G310(512 MB DDR2)
GeForce G315(512 MB GDDR3)
GeForce GT 320(1024 MB GDDR3)
GeForce GT 330(1024/1536/2048 MB DDR2/GDDR3)
GeForce GT 340(512/1024 MB GDDR5)

GeForce 400

GeForce GTX 480 (1536 MB GDDR5)
GeForce GTX 470 (1280 MB GDDR5)
GeForce GTX 465 (1024 MB GDDR5)
GeForce GTX 460 (1024 y 768 MB GDDR5)
GeForce GTS 460 SE (1024 MB GDDR5)
GeForce GTS 450 (1024 MB GDDR5)
GeForce GTS 440 (1024 MB GDDR3 y 512 MB GDDR5)
GeForce GT 430 (2048 y 1024 MB GDDR3, se especula una versión con GDDR5)

GeForce 500

GeForce GTX 590 (1536 MB x2 GDDR5)
GeForce GTX 580 (1536 MB GDDR5)
GeForce GTX 570 (1280 MB GDDR5)
GeForce GTX 560 Ti (1024 MB GDDR5)
GeForce GTX 560 (1024 MB GDDR5)
GeForce GTX 550 Ti (1024 MB GDDR5)
GeForce GT 520 (1024 MB GDDR3)

GeForce 600

GeForce GTX 690 (2xGK104, 2×2048/4096MB GDDR5_6008MHz, 2x256b, 2x1536sp, 300W)
GeForce GTX 680 (GK104, 2048/4096MB GDDR5_6008MHz, 256b, 1536sp, 195W)
GeForce GTX 670 (GK104, 2048M GDDR5_6008MHz, 256b, 1344sp, 170W)
GeForce GTX 660 (GK104?)
GeForce GT 645 (GF114, 1024M GDDR5_3828MHz, 192b, 288sp, 140W)
GeForce GT 640 (GF116, 1536/3072MB DDR3, 192b, 144sp, 75W // GK107, 1024/2048M DDR3/GDDR5_5000MHz, 128b, 384sp, 50/65/75W)
GeForce GT 630 (GK107, 1024/2048MB DDR3, 128b, 192sp, 50W // GF108, 1024M DDR3/GDDR5_3200MHz, 128b, 96sp, 65W)
GeForce GT 620 (GF119, 512/1024M DDR3, 64b, 48sp, 30W // GF108, 1024M, 64b, 96sp, 49W)
GeForce GT 610 (GF119, 1024M DDR3, 64b, 48sp, 29W)
GeForce 605 (GF119, 512/1024M DDR3, 64b, 48sp, 25W)

Bueno el siguiente paso es el mas sencillo ya que debemos abrir nuestro panel de control, de 2 formas , 1 en la barra de inicio podemos ver al lado de la hora un simbolo verde de ojo una cosa asi diminuta

2 o tocamos click derecho en el escritorio y ponemos "Panel de Control de Nvidia"

Luego al entrar al panel podemos ver en la parte superior de la pantalla esto ( sino se ve la imagen avisen )

En el caso de mi placa de video ( el de la imagen ) el idioma esta en ingles

pero si el de ustedes esta en español les aparecera en los 3 primero

-ajustar la configuración de imagen con vista previa
-administrar la configuración 3d
-establecer la configuración physx

Bueno el paso mas importante. Donde dice configuracion 3d, debemos cambiar las preferencias dependiendo del juego.Hay juegos que andan con las mejores y otros con los peores.No hay muchos cambios mas que las sombras y reflejos.Aumenta entre 10 a 15 Fps

Imagenes de mis juegos a maximos graficos

Resident evil 5 60 Fps

Prototype entre 35 y 39 Fps

Call of Duty 4 ( perdonen por esta es WTF 57 Fps )

Assasin`s Creeds ( perdonen por esta tambien 34 Fps )

Gta IV ( con minimos y medianos 17 Fps )

para que sirve Physx :

Physx:El motor de juegos se le habilita un plugin llamado APEX que actúa como un puente entre dicho motor y el PhysX SDK. Este plugin permite traducir el nivel de detalle seleccionado por el jugador en un conjunto de parámetros que el SDK entiende, así permitiendo al SDK concentrarse en enviar los comandos físicos al hardware habilitado (CPUs, GPUs o PPU)
En caso de que no se haya implementado APEX, la comunicación que hay va directo del motor de juegos al API de PhysX. La consecuencia de esto, es que solo se permite habilitar o deshabilitar la física por hardware sin tener en cuenta las prestaciones del hardware que se está empleando. Este modo sin APEX es lo que ocurre en la actualidad por ejemplo con Unreal Tournament 3 que solo tiene una caja para habilitar o deshabilitar física por hardware en las opciones del juego.

¿Cómo se habilita?

NVIDIA habla que hay varios modos para usar PhysX de ahora en adelante y los modos son los siguientes:

Sin aceleración: Los cálculos de física son procesados por el CPU

Aceleración por GPU que consta de tres modos:

Un solo GPU: para tanto cálculos de física como de gráficas en tres dimensiones

Modo SLI: Dos GPUs realizan cálculos de física y gráficos de forma simultanea

Multi-GPU: Un GPU se dedica a procesar únicamente gráficos y el otro únicamente física

Ageia PhysX: Cálculos físicos por medio del ya descontinuado PPU de la ya inexistente AGEIA

Todos estos modos son habilitados o deshabilitados en el applet NVDIA PhysX en el panel de control como se ve a continuación:

¿Para modo Multi-GPU se pueden usar tarjetas de video distintas?
Si, por ejemplo para nuestras pruebas usamos una 8800 GTX como tarjeta de video principal y una 9600 GT para acelerar los cálculos de física.

¿Qué rol cumple el CPU cuando PhysX es acelerado por el GPU?
El modelo de computación heterogénea que plantea NVIDIA habla que cada chip es ideal para ciertas tareas. Por ende, lo ideal es usarlos en conjunto explotando las mejores propiedades de cada uno. Así, la parte del código de PhysX que se presta más para un chip de procesamiento general es ejecutado en el CPU y el código que se presta para tareas paralelas es ejecutado en el GPU.

¿Si mi placa madre viene con un GPU NVIDIA de núcleo G80 o superior y tengo una tarjeta de video adicional, puedo usar el chip integrado como acelerador de física?
Mientras tenga soporte de CUDA si, aun cuando el rendimiento no va a ser el mejor comparado con un GPU discreto.

¿Tener habilitado PhysX por hardware en mi computador significa que mis FPS van a aumentar?
Depende, si los cálculos físicos son hechos en el GPU y el juego esta "atascado" en el número de FPS debido a limitaciones de CPU, con un GPU dedicado a física se liberará al CPU de carga y con ello los FPS serán más altos. Por otra parte, si los FPS están limitados por el GPU, lo más probable es que al habilitar PhysX los FPS bajen porque ahora el GPU tiene que dibujar más partículas y además tiene que preocuparse de cálculos físicos.

¿Qué diferencia existe entre Havok y PhysX?
Por una parte, PhysX ejecuta el código tanto el CPU como en el GPU extrayendo lo mejor de cada chip. Por otra, PhysX escala a medida que se tenga mejor hardware y por ende no es una solución de funciones fijas como lo es el caso de Havok.

¿Qué pasa con AMD e Intel?
Con AMD las noticias son buenas y malas. Por una parte, NVIDIA está apoyando a NGOHW.com para que ellos desarrollen drivers PhysX para ATI. Pero por otra parte, AMD no los está apoyando en la causa. NGOHQ le pidió a AMD una tarjeta de video HD48xx para desarrollar el driver para esta familia y AMD no quiere ayudarlos con esto, por lo que solo pueden garantizar la compatibilidad de PhysX con la serie HD38xx. Esto sienta un precedente que AMD no está haciendo esfuerzos por dar soporte a PhysX en sus GPUs aun cuando NVIDIA ha dicho que no tiene problemas en que sus competidores implementen PhysX.

Con Intel, se sabe que compraron Havok, por lo que probablemente su actitud cuando lancen Larrabee será similar a la de AMD, siendo la gran diferencia que por lo menos Intel tiene su propio API de física y AMD no.

Otras preguntas sobre PhysX sacadas de una entrevista realizada también en el otro sitio, a Manju Hedge ex-CEO de AGEIA y actual Vice-Presidente de Soluciones PhysX:

¿Podrá el PPU simular, aparte de la física Newtoniana, la física cuántica, física relativista o algún otro paradigma físico de nuestra época?
La belleza del procesador PhysX es que el desarrollador puede realmente "definir las leyes de física" en sus juegos.

¿Limitaciones de esta tecnología y posibles soluciones a corto o mediano plazo?
El reto más grande que vemos es la necesidad de educar a los desarrolladores de juegos de manera abierta acerca del potencial de esta tecnología y sus diferentes usos en los juegos. Además, tenemos mucho trabajo por delante para alcanzar el nivel artístico visto en películas en donde, literalmente, se observan cientos de miles de objetos rígidos y millones de partículas. Un ejemplo de esto, de ese nivel de detalle, es la película El Señor de los Anillos.

¿Tienen dentro de sus planes, implementar este tipo de tarjetas para la aceleración de cálculos físicos en software utilizado en la industria tridimensional como 3D Studio Max, Maya, SolidWorks, Catia, etc?
Si, SolidWorks, 3D Studio Max y Maya soportaran el SDK de PhysX, para que el desarrollador pueda fácilmente integrar la física en el desarrollo de juegos.

¿Qué tipo de cálculos podría realizar el PPU (ejemplos: torsiones, presión, gravedad, colisiones, etc.)?
El procesador PhysX puede ser programado para la mayoría de cálculos de la física clásica incluyendo: gravedad, colisiones, presión, tensión, deformaciones, etc.




Filtro Anistropico:

En los gráficos 3D por computadora, el filtrado anisotrópico (abreviado AF por sus siglas en inglés: Anisotropic filtering) es un método para mejorar la calidad de una textura en una superficie que está vista desde un ángulo oblicuo con respecto al ángulo de proyección de la textura sobre una superficie.
Así como el filtrado bilineal y el filtrado trilineal, el filtrado anisotrópico elimina el efecto aliasing, pero difiere de los anteriores métodos en que reduce la difuminación y conserva detalles con ángulos de vista extremos.
El filtrado de anisotropía es relativamente pesado (principalmente por el uso de memoria y por cierto grado de procesamiento computacional) y sólo pasó a ser una característica estándar de las tarjetas gráficas comerciales a finales de la década de 1990. Actualmente el filtrado anisotrópico es común en las placas modernas y se puede activar y configurar tanto por usuario desde la configuración del driver, o bien por aplicaciones gráficas o videojuegos utilizando herramientas de programación.




Antialiasing

Hace que las texturas tengan una mejor definicion, as de cuenta, hay un circulo, sin el AA, se verian los cuadritos en las orillas de la pelota, pero si le subes todo el AA, se ve casi o completamente redonda, las orillas se ven mas claras, pero consumen mucha memoria, solo es para computadoras con mucho poder de procesamiento, pero si ayuda bastante en el juego, te sugieron que lo actives, aunque se vea lento, solo para que veas que es lo que hace en el juego, ya despues lo vuelves a activar, es solo prueba.

En el área del procesamiento digital de señales en general, se le llama antialiasing a los procesos que permiten minimizar el aliasing cuando se desea representar una señal de alta resolución en un sustrato de más baja resolución.
En la mayoría de los casos, el antialiasing consiste en la eliminación de la información de frecuencia demasiado elevada para poder ser representada. Cuando tal información es dejada en la señal, se pueden producir artefactos impredecibles, tal y como puede verse en la figura 1-a.
En el contexto del procesamiento digital de señales, un procedimiento de antialiasing podría ser, por ejemplo, el filtrado de las frecuencias que exceden el criterio de Nyquist, limitando así el ancho de banda en la señal. Sin embargo, el término antialiasing aparece con mayor frecuencia en el contexto de los gráficos por computadora.
En infografía, el antialiasing es un algoritmo que permite evitar los artefactos asociados al aliasing gráfico, como por ejemplo los patrones de Moiré. La figura 1-a muestra en su parte superior las distorsiones visuales espurias que aparecen en una imagen sintética con detalles pequeños, cuando el antialiasing no se utiliza. En contraposición con la figura 1-b, en donde se ha utilizado un esquema de antialiasing, en esa imagen los cuadros blancos y negros se funden en tonos de gris, que es lo que se espera cuando el dispositivo gráfico es incapaz de mostrar la fineza de los detalles. La figura 1-c muestra la imagen que resulta al aplicar una segunda estrategia de antialiasing, esta vez basada en la transformada de Fourier de la imagen.




Filtro de Texturas

En gráficos por ordenador , filtrado de texturas o alisar la textura es el método utilizado para determinar el color de la textura de una textura mapeada píxel , utilizando los colores cercanos de téxeles (píxeles de la textura). Matemáticamente, el filtrado de texturas es un tipo de anti-aliasing, pero que no deja pasar las frecuencias altas del relleno de texturas mientras que otras técnicas de AA se centran generalmente en los bordes visuales. En pocas palabras, permite una textura que se aplica en muchas formas, tamaños y ángulos mientras minimiza las imágenes borrosas, brillantes y de bloqueo.
Hay muchos métodos de filtrado de texturas, que hacen diferentes soluciones de compromiso entre computacional complejidad y calidad de la imagen.



Vertical Sync

No encontre descripcion






[img]http://api.ning.com/files/nBFm0VJ1o*u6Kh*gfp7nv0h4USJaHwbhluvY8vfIBsTLxIL1CJ snl0S9kVRy-oy5KsFZVAmZUZUktgmg2l6Rhl2QEeGyppzu/Comentar_es_agradecer.png[/img]