Que grande, al fin alguien en español que habla y disipa toda las preocupaciones que se tenían por la poca vram que nvidia destino para sus nuevas gráficas 👏👏👏
Ya hay muchos taxis en China que se conducen solos totalmente, y no tienen nada que ver con los de USA 👀es una locura cómo se desarrollan, y ya todos los taxis en china full eléctricos, la experiencia de los conductores dicen que NO regresarían para nada a los autos de uso de gasolina ni híbridos, yo digo que en unos pocos años ya sera el estándar en esos paises por total
Que chingon que te animaras a explicar el funcionamiento del ray tracing y el DLSS de la serie 50 que d hecho lo del poco uso de vrmam esta desde la serie 40 también.
Yo si fuese amd sacaría una 9070XTX y no solo quedarse como máximo 9070XT, es que se han comido las 9080/9090 y sus versiones. Vale que no quieran competir en la gama alta pero que saquen al menos la 9070XTX. Y que fuesen gdrr6X y no solo gdrr6 a secas, ya que la competencia ya usa la gdrr7.
Viendo los modelos de zotac me llevé una ligera decepción, me voy a hacer de una 5070 y de no encontrar un modelo de ROG que me guste pues iba a ser mi segunda opción porque los de serie 30 y 40 si me gustaron (tengo una 3070 holo), que bueno que si me gustó el modelo de rog strix solo espero que no vengan manchadamente caras 😹 Es impresionante los avances con la IA !! pero como siempre, habrá detractores con los avances, he estado viendo los avances en las GPU desde 2008 y no cabe duda que la IA llegó para quedarse al grado que la competencia tambien lo está implementando
Es una lastima que el Resident Evil 4 Remake no tenga soporte nativo de dlss y el mod tenga algunos detallitos visuales 😞, pero bueno las nuevas tarjetas de nvidia se ven chulas y con tecnologías muy interesantes.
Si conoces HyperRX de Radeon, es mas o menos lo mismo pero en especifico para juegos con DLSS3.5 y tarjetas nvidia, para poder usar DLSS4 en las nuevas tarjetas de serie 50
Tengo una Gygabyte RX 760XT con esas luces encendidas de forma permanente pero todo funciona bien, me confunde si todo esta bien o hay algo con problemas
amigo quetal que tengas un exelente dia podrias sacarme de una duda 1 que diferencia tiene dlss 4 a lossles Scaling 3.0 podrias desirse que casi la misma funcion 2 porque la aplicacion de nvidea detecta los fps que produce loss scaling si se sabe que ese sistema inbenta los fps son falsos 3 MSI Afterburner no detecta los fps inventados de lossles scaling ya que solo detecta fps reales en bruto de la grafica sera porque la graficas bajaron de precio porque nos estan bendiendo algo no real
A ver, vamos por partes, 1-DLSS4 (cualquier versión) es fundamentalmente distinto a lossless scaling (que dicho sea de paso está basado en FSR) al ser un escalador por IA y no un escalador temporal, es decir, DLSS4 lleva un entrenamiento de matrices para que la computadora pueda dibujar píxeles que no había en la resolución de renderizado nativo, para la resolución de salida de la imagen de mayor calidad pues puede inferir cosas que se pierden en resoluciones bajas y "recuperarlas" porque está entrenado para eso, en el caso de lossless scaling, no puede escalar (o recuperar) información que no se encuentra en pantalla, por lo que tendrás una imagen grandota de mejor calidad pero con detalles que se perdieron en el escalado. Otra cosa importante es que DLSS toma los vectores de movimiento que tú le proporcionas al juego para poder imaginar detalles en el movimiento y dirección del mismo, por lo que la generación de píxeles extra es más precisa que sin estos datos, lossless scaling por su parte no tiene acceso a esta información porque no está integrado en el juego directamente, y el resultado negativo es que lossless scaling se siente con mucho lag y eso te resta precisión en los juegos. Eso solo es de escaladores, cuando hablamos del componente "frame generation" es interesante la forma en la que se generan los cuadros, ya que es básicamente una técnica de extrapolacion de imágenes, en DLSS usa las matrices entrenadas y con eso y el historial previo de cuadros puede generar más imágenes para subir el conteo de FPS, en el caso de lossless scaling solo es mediante los últimos cuadros renderizados. En sus últimas versiones tanto DLSS4 y Lossless scaling 3.0 incluyen Multi Frame Génération que básicamente permite generar más de un cuadro posterior al cuadro renderizado. 2- la aplicación de Nvidia (frameview) mide los cuadros de salida, todo lo que se haya renderizado se contabiliza, por eso cualquier cuadro generado con algún "frame generation" se contabiliza. 3-afterburner no contabiliza los cuadros de lossless scaling porque no esta midiendo en el punto correcto pues no mide el final del renderizado total, es como si estuvieras en una pizzería, MSI afterburner cuenta las pizzas que salen del horno, mientras que frameview cuenta las rebanadas que se venden, son cosas distintas pero ambas son pizza, solo que en este ejemplo imagínate que pudieras vender (o duplicar) las pizzas completas en lugar de solo rebanadas. Y lo de los precios es por tema de estrategia, Intel lanzo gráficas en diciembre a buen precio y luego AMD hace enojar a Nvidia copiando el esquema de nombres y Nvidia decide bajar precios para atraer a nuevos clientes y quitarse competencia del mercado, lo de "nos están vendiendo algo que no es real" es un argumento divertidamente absurdo jejeje, las tarjetas de video son objetos tangibles y reales, pero los cuadros por segundo, imágenes o lo que sea que estás tarjetas generen TODO siempre ha sido, es y será intangible, por lo tanto "falso" desde el primer adaptador de video en los años 70s hasta cualquier tarjeta de video moderna, nada de eso existe :P
@@DrogaDigital entendi todo menos lo de las pizaz jajajaja pero si entiendo la diferencia que representa cada tecnologia aora gracias por tomarte el tienpo d poder explicar algo un tanto conplicado saludos exelente contenido el que construllen para nosotros
SALUDOS MI ESTIMADO ED Y CLARO FELICITAR A TODO EL EQUIPAZO DE DD POR LA COVERTURA DEL CES 2025 Y ENTERARNOS DE LAS NOVEDADES EN TECNOLOGIA QUE NOSOTROS NO PODIMOS VER. Y CLARO SEGUIMOS EN EL VIAJE.
Interesante como NVIDIA apuesta a la IA y ofrece resultados "Atractivos" para incentivar al consumidor a realizar trabajos neuronales y de IA desde su casa, con su consumo energético y su gasto de luz local; Y qué todo lo recabado se usarán en bases de datos. Así ya no gastan tantos en granjas neuronales, obtienen resultados de IA y venden tarjetas gráficas a un precio accesible y todos felices.
lossless scaling es bueno para juegos solo player, aunque no lo recomiendo si juegas shooters o juegos multiplayer a menos que sean quizás de carreras.
Pensé que cada vez los juegos se verían más realistas, pero ahora solo los veo a más "fps". Y cosa que ya no distingo a partir de 140, ya nadie habla de calidad visual, solo de errores en la ai.
Hola. Creo que te falta investigar. Pero te voy explicar un poco. Lo que nvidia presento fue el multi frame generation ( mas fps). Asi estan demostrando a inversores (en números los avances en su tecnologia) Cuando te muestran estas graficas te dicen que tenemos una tecnología que genran muchos fps. Pero en realidad lo mas pesado no es usar dlss + rt; sino dlaa + rt. Porque si las graficas las hacen con dlaa los fps no van a subir mucho.(en video la calidad no es notable en cambio numeros si) los inversores ven numeros. El dlaa es meter la resolución nativa de rasterizado al reconstructor y la IA te da mas detalles. (DLAA 1440 te muestra una caludad de 6k 😱) Al tener la IA que trabajar con mas pixeles es mas pesado y por ende menos fps pero la calidad es brutal digamos que da 25 fps pero ahora va entrar el MFG y te sacara mas fps y esos 25 los llevara a 100 o 200 fps.(enirme caludad con fluidez). Eso produce latencia pero esa latencia se baja con reflex 2 + frame warp (saltara frame) Los monitos van a bajar mucho de precio.
de hecho estaremos hablando de cada uno de los temas mas adelante, no fue una presentacion, fue un dia completo como con 8 sesiones de una hora para explicar todas las tecnologias nuevas.
solo si hablamos de potencia bruta en rasterizado. si hablamos de procesos que puedan tomar ventaja de los otros modulos de la tarjeta (como la edicion de video en davinci resolve en especifico por ahora) tenemos que son tarjetas muy potentes, y si, DLSS es la forma mas basica de Renderizado neural, y nvidia pretende que sea el estandar de facto, para todo esto, al final solo es una tecnica distina de render en tiempo real, no deberia ser un drama, pues basicamentew en esta generacion o la otra se vera mas y mas como el estandar.
voy por una 5070 o 5060ti para cambiar mi 3060 de 12gb ,con eso apenas para mi porque tengo que cambiar la fuente tambien 😅y solo juego a 1080 o 1440 🤭
quieren potencia bruta compren 1080ti y rx480 esas no tienen ia y todos felices, las tecnologias no pregunta si te gustan o no solo llegan , te adaptas o te adaptas
si pagas 1000-2000 dolares por una grafica deberias de poder usarla en cualquier juego a toda su potencia, y no depender de si al desarrollador del juego le dio por incluir una tecnologia para que esa grafica rinda a su maximo potencial, eso es crear una burbuja falsa que puede reventar en cualquier momento, la serie 5000 y el rumbo que esta tomando nvidia es un rumbo de mierda donde el rendimiento depende de factores ajenas a tu grafica por la que cada año vas pagando mas y mas por mucho que te vendan que pagas por mas "rendimiento"
o tienes una memoria historia muy corta o eres muy joven... lo mismo pasaba con los pixel shaders, hoy en dia son estandar, en su momento la gente pensaba que solo eran un nicho y que solo encarecian las tarjetas graficas...
@@DrogaDigital hay una diferencia, los pixel shader vinieron a solucionar un problema para los desarrolladores, lo qu hizo que se convirtiera en un estandar, lo de ahora no, si los desarrolladores lo aplican es por conveniencia de los jugadores, pero realmente no ganan nada, me sorprende que no haya alguna empresa rata como EA, o alguna otra que no haya empezado a cobrar un extra, o un dlc aparte a los juegos que vengan con dlss o talvez ya lo estemos haciendo pero no directamente, talvez sea una de las razones por la que se cree que el nuevo precio estandar de los juegos sera a partir de los 100 dolares
despues de reflexionar creo que me quedo con mi 4070S al menos por 2 años + que se maten Intel y AMD y esperaré con paciencia y apuesto a que DLSS4 será compatible con series 4000
Ufff ese grafico probando el modelo de Flux.dev 2 veces mejor que la generación pasada ya veo donde esta el verdadero valor, si con mi RTX 4080 tarda ~30 segundos en una imagen de 1024x1024, con esa nueva RTX 5080 reducir a la mitad el tiempo de generación de imagenes va a ser una locura.
Ya no es TAN necesario ver de lado de la velocidad de los modelos de generación tipo FLUX u otros, cuando con el tiempo los mismos creadores lo van optimizando o otras personas modifican los modelos, busca Flux 1.58-bit este es un comprimido mucho mejor que utiliza MUCHISIMA menos vram y ram para hacerlo correr, que realmente eso es lo que toma tambien el tiempo, en general en una 4090 el flux 1 tarda 15 segs pero por que consume las 24gb de VRAM, en la 5090 segun va a 5-10 segundos, pero eso es un modelo que "fue nuevo" en una version normal como es el Flux dev 1, ahora ya estan saliendo mejores modelos como el Flux 1.58-bit que los optimizan y hasta se ven mejores con las mismas seed, hechale un vistazo antes de comprar una 👀
Que grandote esta Ed Jr., se va pareciendo cada día más a su papá y dando noticias como el 😂😂😜😜
Pasamos de baby face al Chompiras, quizá le falte más render.
Que grande, al fin alguien en español que habla y disipa toda las preocupaciones que se tenían por la poca vram que nvidia destino para sus nuevas gráficas 👏👏👏
Ya hay muchos taxis en China que se conducen solos totalmente, y no tienen nada que ver con los de USA 👀es una locura cómo se desarrollan, y ya todos los taxis en china full eléctricos, la experiencia de los conductores dicen que NO regresarían para nada a los autos de uso de gasolina ni híbridos, yo digo que en unos pocos años ya sera el estándar en esos paises por total
Que chingon que te animaras a explicar el funcionamiento del ray tracing y el DLSS de la serie 50 que d hecho lo del poco uso de vrmam esta desde la serie 40 también.
Yo si fuese amd sacaría una 9070XTX y no solo quedarse como máximo 9070XT, es que se han comido las 9080/9090 y sus versiones. Vale que no quieran competir en la gama alta pero que saquen al menos la 9070XTX. Y que fuesen gdrr6X y no solo gdrr6 a secas, ya que la competencia ya usa la gdrr7.
solo si es que su arquitectura lo soporta, facil es decir que se haga dificil que se pueda
vi gente pidiendo una RX 7950 XTX y pos no se puede xd
Viendo los modelos de zotac me llevé una ligera decepción, me voy a hacer de una 5070 y de no encontrar un modelo de ROG que me guste pues iba a ser mi segunda opción porque los de serie 30 y 40 si me gustaron (tengo una 3070 holo), que bueno que si me gustó el modelo de rog strix solo espero que no vengan manchadamente caras 😹
Es impresionante los avances con la IA !! pero como siempre, habrá detractores con los avances, he estado viendo los avances en las GPU desde 2008 y no cabe duda que la IA llegó para quedarse al grado que la competencia tambien lo está implementando
Se fue Dr Hoodman y se le empezo a caer la barba a Ed 🤣
Es una lastima que el Resident Evil 4 Remake no tenga soporte nativo de dlss y el mod tenga algunos detallitos visuales 😞, pero bueno las nuevas tarjetas de nvidia se ven chulas y con tecnologías muy interesantes.
Alguien sabe de casualidad dónde se van a poder comprar esas madres?
1:52 como en el que se cae la gráfica jajaja lo declaró video del año
Ya está volviendo el poder de la barba
El renderizado neural (especificamente el neural texture compression), ¿si llegara a la serie 40?
no, todo eso es exclusivo de serie 50
@@DrogaDigitalahora estoy considerando actualizar Xd, gracias Tío Ed :)
Se ve preciosa la Yeston azul con blanco 😃👌
Siiii
Que es eso del Override que mencionaste? Escuche la palabra antes pero no explicaban que era
Si conoces HyperRX de Radeon, es mas o menos lo mismo pero en especifico para juegos con DLSS3.5 y tarjetas nvidia, para poder usar DLSS4 en las nuevas tarjetas de serie 50
@DrogaDigital aaah eso, gracias 🫂
Tengo una Gygabyte RX 760XT con esas luces encendidas de forma permanente pero todo funciona bien, me confunde si todo esta bien o hay algo con problemas
amigo quetal que tengas un exelente dia podrias sacarme de una duda
1 que diferencia tiene dlss 4 a lossles Scaling 3.0 podrias desirse que casi la misma funcion
2 porque la aplicacion de nvidea detecta los fps que produce loss scaling si se sabe que ese sistema inbenta los fps son falsos
3 MSI Afterburner no detecta los fps inventados de lossles scaling ya que solo detecta fps reales en bruto de la grafica
sera porque la graficas bajaron de precio porque nos estan bendiendo algo no real
A ver, vamos por partes, 1-DLSS4 (cualquier versión) es fundamentalmente distinto a lossless scaling (que dicho sea de paso está basado en FSR) al ser un escalador por IA y no un escalador temporal, es decir, DLSS4 lleva un entrenamiento de matrices para que la computadora pueda dibujar píxeles que no había en la resolución de renderizado nativo, para la resolución de salida de la imagen de mayor calidad pues puede inferir cosas que se pierden en resoluciones bajas y "recuperarlas" porque está entrenado para eso, en el caso de lossless scaling, no puede escalar (o recuperar) información que no se encuentra en pantalla, por lo que tendrás una imagen grandota de mejor calidad pero con detalles que se perdieron en el escalado. Otra cosa importante es que DLSS toma los vectores de movimiento que tú le proporcionas al juego para poder imaginar detalles en el movimiento y dirección del mismo, por lo que la generación de píxeles extra es más precisa que sin estos datos, lossless scaling por su parte no tiene acceso a esta información porque no está integrado en el juego directamente, y el resultado negativo es que lossless scaling se siente con mucho lag y eso te resta precisión en los juegos.
Eso solo es de escaladores, cuando hablamos del componente "frame generation" es interesante la forma en la que se generan los cuadros, ya que es básicamente una técnica de extrapolacion de imágenes, en DLSS usa las matrices entrenadas y con eso y el historial previo de cuadros puede generar más imágenes para subir el conteo de FPS, en el caso de lossless scaling solo es mediante los últimos cuadros renderizados.
En sus últimas versiones tanto DLSS4 y Lossless scaling 3.0 incluyen Multi Frame Génération que básicamente permite generar más de un cuadro posterior al cuadro renderizado.
2- la aplicación de Nvidia (frameview) mide los cuadros de salida, todo lo que se haya renderizado se contabiliza, por eso cualquier cuadro generado con algún "frame generation" se contabiliza.
3-afterburner no contabiliza los cuadros de lossless scaling porque no esta midiendo en el punto correcto pues no mide el final del renderizado total, es como si estuvieras en una pizzería, MSI afterburner cuenta las pizzas que salen del horno, mientras que frameview cuenta las rebanadas que se venden, son cosas distintas pero ambas son pizza, solo que en este ejemplo imagínate que pudieras vender (o duplicar) las pizzas completas en lugar de solo rebanadas.
Y lo de los precios es por tema de estrategia, Intel lanzo gráficas en diciembre a buen precio y luego AMD hace enojar a Nvidia copiando el esquema de nombres y Nvidia decide bajar precios para atraer a nuevos clientes y quitarse competencia del mercado, lo de "nos están vendiendo algo que no es real" es un argumento divertidamente absurdo jejeje, las tarjetas de video son objetos tangibles y reales, pero los cuadros por segundo, imágenes o lo que sea que estás tarjetas generen TODO siempre ha sido, es y será intangible, por lo tanto "falso" desde el primer adaptador de video en los años 70s hasta cualquier tarjeta de video moderna, nada de eso existe :P
@@DrogaDigital entendi todo menos lo de las pizaz jajajaja pero si entiendo la diferencia que representa cada tecnologia aora gracias por tomarte el tienpo d poder explicar algo un tanto conplicado saludos exelente contenido el que construllen para nosotros
Gracias por decir lo importante apenas inicia el video
Mañana sale rtx en mi perro jaj jaj
el tio ed con barba de tres dias jajaja esperemos que ya este en la ciudad jajaja
Pense que habian cambiado los presentadores
tengo una teoría de pq el buen ed corsa se afeito, saldrá sin barba en la foto de su pasaporte?
SALUDOS MI ESTIMADO ED Y CLARO FELICITAR A TODO EL EQUIPAZO DE DD POR LA COVERTURA DEL CES 2025 Y ENTERARNOS DE LAS NOVEDADES EN TECNOLOGIA QUE NOSOTROS NO PODIMOS VER. Y CLARO SEGUIMOS EN EL VIAJE.
muchas gracias!!
Acá una 4070 esta siendo vendida a partir del millon de pesos argentinos, como 1000 dolares serian minimo
Interesante como NVIDIA apuesta a la IA y ofrece resultados "Atractivos" para incentivar al consumidor a realizar trabajos neuronales y de IA desde su casa, con su consumo energético y su gasto de luz local; Y qué todo lo recabado se usarán en bases de datos. Así ya no gastan tantos en granjas neuronales, obtienen resultados de IA y venden tarjetas gráficas a un precio accesible y todos felices.
lossless scaling es bueno para juegos solo player, aunque no lo recomiendo si juegas shooters o juegos multiplayer a menos que sean quizás de carreras.
EXCELENTE INFORMACIÓN Y NOTICIAS
gracias!
Yo creo que los demás fabricantes de gráficas la tienen muy, pero muy difícil para que puedan destronar a NVIDIA...
ED CORSA sin barba, ED CORSA cerrando ciclos
Me iba a comprar la 4080 pero ahora estoy en duda si la 5070ti o 5080
habra que ver el lag i los artifacs en un juego de movimiento . i no me refiero a la 5090 , si no a la 5070
buen video ed, caray aun no me acostumbro a verte sin barba
Lo bueno es que ya viene de regreso
yo terngo mucho hype con la 9070xt
Pensé que cada vez los juegos se verían más realistas, pero ahora solo los veo a más "fps". Y cosa que ya no distingo a partir de 140, ya nadie habla de calidad visual, solo de errores en la ai.
Hola. Creo que te falta investigar.
Pero te voy explicar un poco.
Lo que nvidia presento fue el multi frame generation ( mas fps).
Asi estan demostrando a inversores (en números los avances en su tecnologia)
Cuando te muestran estas graficas te dicen que tenemos una tecnología que genran muchos fps.
Pero en realidad lo mas pesado no es usar dlss + rt; sino dlaa + rt.
Porque si las graficas las hacen con dlaa los fps no van a subir mucho.(en video la calidad no es notable en cambio numeros si) los inversores ven numeros.
El dlaa es meter la resolución nativa de rasterizado al reconstructor y la IA te da mas detalles. (DLAA 1440 te muestra una caludad de 6k 😱)
Al tener la IA que trabajar con mas pixeles es mas pesado y por ende menos fps pero la calidad es brutal digamos que da 25 fps pero ahora va entrar el MFG y te sacara mas fps y esos 25 los llevara a 100 o 200 fps.(enirme caludad con fluidez).
Eso produce latencia pero esa latencia se baja con reflex 2 + frame warp (saltara frame)
Los monitos van a bajar mucho de precio.
nvdia no hagan pongan dobles gpu en tarjetas ,intel vamos hacer poner doble gpu
26:02 el momento racista del buen Ed jajaja osea los negritos son negritos por dentro ? Jajajajja 😅😅😅😅
todo bien con los fps pero necesitas un monitor tope de gama para aprovechar esa potencia sino no tienen sentido saludos!!!
Que pasa con las chanclas de Zotac?. La verdad a mi me gusta mi chancla 4080 con RGB.
No Shaved Corsa!
No entiendo porque las tarjetas BTF no se hicieron populares, quería una blanca y nomas no encuentro
Increible, esa presentacion que les dieron a ustedes hubiera sido bueno que lo pongan para todos :0
de hecho estaremos hablando de cada uno de los temas mas adelante, no fue una presentacion, fue un dia completo como con 8 sesiones de una hora para explicar todas las tecnologias nuevas.
@DrogaDigital whaaat tanto así
El audio está fatal brother...
Crees que una RTX 5070 es aun compatible con este equipo?
- B450 Steel Legend (PCIe 3.0)
- 32 Gb Ram DDR4 3600 Mhz
- Ryzen 7 5800X
No
Osea que la potencia bruta de la 5090 es pauperrima.. son dlss dependientes y si la usas para renderizar o editar no hay mucha diferencia con una 4090
solo si hablamos de potencia bruta en rasterizado. si hablamos de procesos que puedan tomar ventaja de los otros modulos de la tarjeta (como la edicion de video en davinci resolve en especifico por ahora) tenemos que son tarjetas muy potentes, y si, DLSS es la forma mas basica de Renderizado neural, y nvidia pretende que sea el estandar de facto, para todo esto, al final solo es una tecnica distina de render en tiempo real, no deberia ser un drama, pues basicamentew en esta generacion o la otra se vera mas y mas como el estandar.
Pero esa luz de seguridad ya la tiene mi 4070 ti super dual de asus... Y por cierto odio todo esto del nuevo conector. Realmente apesta
Alguien me pone en contexto del porque se separaron? 😢
voy por una 5070 o 5060ti para cambiar mi 3060 de 12gb ,con eso apenas para mi porque tengo que cambiar la fuente tambien 😅y solo juego a 1080 o 1440 🤭
yo era fanboy de amd en graficas pero despues de las rtx 50 creo que me ire por team green pero en procesadores sigo siendo team red
Pensé que el tío ed estaría en una fabrica de temu después de lo de ayer 😢
el video ya estaba grabando desde antes :P
@DrogaDigital entonces el tío se quedó atrapado en una fabrica china? D;
m4ld1t0 yt que no avisa nada del canal ... no solo aqui..son varios canales que les estan haciendo "shadow ban" ...
Preñame.😊
quieren potencia bruta compren 1080ti y rx480 esas no tienen ia y todos felices, las tecnologias no pregunta si te gustan o no solo llegan , te adaptas o te adaptas
ya han echoi pruebas reales y si quitas dlss no es tan potente
Yo me voy a comprar un core ultra 7 265 no K y una rtx 5080.
Me agradabas más con tu barba 😅
Y las marcas de tiempo del vídeo?
ya estan arriba! :)
Esa barba es real o tiene rt ? 🤔
Al que no le gusta las nuevas tecnologías la tiene fácil comprar hardware antiguo
en realidad es quedarse en donde estan. yo con mi 3090 sigo feliz
RTX5070 está bien pero, AMD vendra con una 9070xt similar a una 4080super. Muy por encima de una 5070ti.
si pagas 1000-2000 dolares por una grafica deberias de poder usarla en cualquier juego a toda su potencia, y no depender de si al desarrollador del juego le dio por incluir una tecnologia para que esa grafica rinda a su maximo potencial, eso es crear una burbuja falsa que puede reventar en cualquier momento, la serie 5000 y el rumbo que esta tomando nvidia es un rumbo de mierda donde el rendimiento depende de factores ajenas a tu grafica por la que cada año vas pagando mas y mas por mucho que te vendan que pagas por mas "rendimiento"
o tienes una memoria historia muy corta o eres muy joven... lo mismo pasaba con los pixel shaders, hoy en dia son estandar, en su momento la gente pensaba que solo eran un nicho y que solo encarecian las tarjetas graficas...
@@DrogaDigital hay una diferencia, los pixel shader vinieron a solucionar un problema para los desarrolladores, lo qu hizo que se convirtiera en un estandar, lo de ahora no, si los desarrolladores lo aplican es por conveniencia de los jugadores, pero realmente no ganan nada, me sorprende que no haya alguna empresa rata como EA, o alguna otra que no haya empezado a cobrar un extra, o un dlc aparte a los juegos que vengan con dlss o talvez ya lo estemos haciendo pero no directamente, talvez sea una de las razones por la que se cree que el nuevo precio estandar de los juegos sera a partir de los 100 dolares
Chismesito! vieron a un becario intentando sabotear las graficas Radeon :v
Hola
Pantalla verde en pantalla verde, la ironia
despues de reflexionar creo que me quedo con mi 4070S al menos por 2 años +
que se maten Intel y AMD y esperaré con paciencia y apuesto a que DLSS4 será compatible con series 4000
Potentemente Cara
16:37 como decir que estamos viendo un COMERCIAL-ANUNCIO PATROCINADO sin decir que es un ANUNCIO-COMERCIAL PATROCINADO jajajajajajajajaja
El cable anti incendios te hace falta en la cabeza
Ufff ese grafico probando el modelo de Flux.dev 2 veces mejor que la generación pasada ya veo donde esta el verdadero valor, si con mi RTX 4080 tarda ~30 segundos en una imagen de 1024x1024, con esa nueva RTX 5080 reducir a la mitad el tiempo de generación de imagenes va a ser una locura.
exactamente!
Ya no es TAN necesario ver de lado de la velocidad de los modelos de generación tipo FLUX u otros, cuando con el tiempo los mismos creadores lo van optimizando o otras personas modifican los modelos, busca Flux 1.58-bit este es un comprimido mucho mejor que utiliza MUCHISIMA menos vram y ram para hacerlo correr, que realmente eso es lo que toma tambien el tiempo, en general en una 4090 el flux 1 tarda 15 segs pero por que consume las 24gb de VRAM, en la 5090 segun va a 5-10 segundos, pero eso es un modelo que "fue nuevo" en una version normal como es el Flux dev 1, ahora ya estan saliendo mejores modelos como el Flux 1.58-bit que los optimizan y hasta se ven mejores con las mismas seed, hechale un vistazo antes de comprar una 👀
LossLess Scaling presenta menos artefactos que el AFMF de AMD 👇👇
th-cam.com/video/hGmGc_HMzOw/w-d-xo.htmlsi=YqRCyykHH3i6PXjn