@@TorotochoReviewsestoy de acuerdo con @Jesus. Me gustaría un vídeo igual pero con la b580. Hay poca claridad en otros vídeos. Tengo entendido que una es 4.0 y otra 5.0
Siempre ha sido un tira y encoje entre AMD e Intel, un ejemplo los Pentium 4 y los Pentium D fueron una generación bastante mala y atrasada, aún así la cuota de mercado de Intel sigue siendo bastante importante aunque sus acciones han sufrido bastante.
hola toro tocho la marca de llano de as bases chinas con ventiladores ya tienen la verción12 de esa base a mi me gastaría que sacaras una reviw de esa, porque me gustaron los videos que sacas te esa ves 😀 👍
10:00 Configura el render de blender en buckets para ahorrar memoria, también trata de usar la última versión, ahora la 4.3.2 también sería interesante una prueba de Vray
@cbmontana7630 los procesadores de amd que he tenido gastan el doble que los de nvidia haciendo lo mismo. Ahora con la 4080 ti super ahorra mas que las generaciones anteriores
no esperes mucho de las 9070 de amd, ya que ya no harán mas graficas de alta gama para gamers, solo haran graficas pedorras como la b580 rtx 4060 y rx 7600, amd ya esta redirigiendo sus presupuestos a graficas para servidores de ia, ahi esta donde le quiere ganar a Nvidia, los gamers defraudamos a amd, con su gran generacion RX 6000, pero nadie los compraba
En Marvel Rivals, tienes activada el Xess (incluyendo el modo nativo que es como si fuera el DLAA), la generación de Frames de Xe y el Low Latency de Xe. Por cierto, se supone que en unos meses veremos las B700 y a final de año empezaremos a ver las Celestial X3 (ya están terminadas desde antes de diciembre, están en la mejora de software y nuevas características asociadas a él)
I like the card as it was $219 usd for me plus $4.99 shipping and $15 tax (VAT), been playing some Crysis Remastered with it and a game you should try on B570 as to be DX 11 based. enjoyed the review with english ha ha.. wanted to make the buy before incoming tariff wars.
Creo que han faltado pruebas sin reescalado para ver la potencia bruta de las tarjetas, y pq es un modo que siempre se va a poder jugar, (no todos los juegos tienen reescalado). Otra prueba necesaria que nadie hace es jugar por debajo del modo ultra, y ver la estabilidad, fps minimos y eso. Tambien ver como se comporta reproduciendo video. Y a ver sin un dia haces review de tarjetas en linus, para saber cual es la mejor para los que no quieren windows. Saludos a todos.😊
Ahí tienes el 1%, el Frame time y el avg de FPS, con eso te dice la estabilidad, lo de jugar en alto o ultra ya es para que la gráfica sea el cuello de botella y de tener problemas de estabilidad lo notarias en cualquier resolución y calidad Lo de reproducción de vídeo lo veo incensario si te refieres a por ejemplo reproducir 4k en TH-cam, yo solo lo veo que se lo hacen a integrada de chips de baja potencia o si acaso en gráficas demasiado antiguas para ver cómo se comporta en entorno moderno, en una gráfica dedicada actual es innecesario En probar el Linux ya el vídeo se haría muy largo aparte que probablemente en lo que respecta a nivel de usuario promedio muy poca gente lo usa aparte que posiblemente en este caso los drivers de Linux para estás Intel Arc No funcionen bien(aparte de haber muchas distros y entornos donde puede variar el como vaya)de todas formas sería interesante ver cómo se comportarían bajo protón gracias el DXVK y que estás gráficas tienen un plus de rendimiento.
@jose2822 Pues gracias por tu aclaración, pero hay tarjetas que bajar de ultra a alto, mejoran más que otras, debido al ancho de banda, velocidad memoria, etc. y es interesante saberlo, pq la diferencia en el impacto visual a veces es inapreciable. Lo del video es para ver el consumo en windows, tuve una tarjeta que viendo youtube se comia 50w, una barbaridad, una ruina. Lo de linus, lo decia por hacer un video exclusivo probando tarjetas y drivers. En verdad toda la información que se nos pueda dar, nos ayuda hacer mejores compras, como review de tarjetas antiguas, que algunas con las mejoras de drivers y por recibir nuevas tecnologías, pasan a ser compra recomendada cuando de salida no lo eran. Un saludo.
nuevamente el chiste ver el rendimiento bruto de la gráfica es capaz de dar, luego ahí puedes hacer los ajuste que creas conveniente si eres propietario de una, pero el chiste es eso, de lo que es capaz con lo más exigente Lo de la tarjeta ni idea por qué te consumía 50w, ¿Estás seguro que era el consumo real? las mediciones por software en circunstancias no son muy precisas que digamos aún así el consumo promedió de gráficas actuales son entre 20w-30w reproduciendo vídeo y posiblemente eso se pudiera ser simplemente algo con la versión de drivers o simplemente que la medición de watt no era correcta ahora que te vas arruinar por eso es exagerado, más bien toro tocho tiene un vídeo de el haciendo cálculos cuando la factura de la luz estaba bastante alta en España por el confinamiento y los resultados y a pesar que eran cálculos al aire no era nada del otro mundo incluso con uso desmedido de 24/7, más bien yo uso un calentador de 2000w y está prendido más tiempo que mi pc tampoco que me suba la factura de la luz para darme cuenta o piense que es una exageración Lo de Linux nuevamente es demasiado problemático de hacer, si tienes algo de experiencia lidiando con ello es bastante complejo más por el número de distros que existen y sus entornos de escritorio, ahora imagina lo que le tomaría hacer un test con varias gráficas a las vez, yo he usado varias distros no es que me vaya perfecto con estos(sigo prefiriendo usar en mi pc principal Windows porque estoy más familiarizado, eso sí mint y Steam os por la Steam deck me han resultado mis mejores Experiencia en Linux). De gráficas antiguas si ya no tiene soporte de parte del fabricante no sirve de mucho estar poniendo hacer test, ahora también sería engorroso estar probando varias versiones de drivers, ya si conoces bien en mundo pc lo fabricante siempre le dan prioridad a los últimos lanzamiento y que por lo general hay versiones de Drivers que pierden rendimiento o se rompe con juegos más antiguos y que estás suelen solucionar al cabo de un rato, y de por si tienes miles de canales dedicado a ellos, simplemente pones el nombre de tu gráfica vieja y ves como rinde en juegos si quieres algo más complejo y por ejemplo software de trabajo aunque te será complicado
Te recomiendo para futuras reviews de las graficas, que midas el consumo del sistema en total porque en caso de la intel aunque te marque tan poco, realmente esta consumiendo mas, la B580 consume mas de 150w y en todos los benchmarks se ve como que consume 110w, pero realmente consume mas que la rtx 4060 por ejemplo, que marca mas, pero si con los mismos componentes y todo, pero con diferente grafica, el sistema que tenga la b580 consumira mas.
Hace falta stock!, me gusta que Intel saque cosas decentes, pero es totalmente inútil si no hay ni dios que la compre, una pena la verdad, en Amazon las b580 están a 400€ y por ese precio no compensa, ojalá lo arreglen pronto 🤞.
para lo único que me sirve una GPU Intel, para tener un Encoder y Decoder por separado de la NVIDIA RTX. desconozco si tienen cómo grabar highlights lo cual me vendría super para que así la NVIDIA me renderice solo el juego.
a ver el resumen esque en la mayoria de juegos la arc gana no? Es decir mas barata que la 7600 y mejor por lo que veo, o por que ustedes no la comprarian?
Es mejor la rtx 4060, consume lo mismo, tiene el mejor DLSS y frame gen, esta mucho más disponible, no tiene problemas con drivers en ningún juego y no necesita procesador tan potente. Si Intel arreglase todas las inestabilidades, aún así el xess y el frame gen abría que ver como van, estas gráficas son para 1080p no más, y ahí en un escenario real para estas gamas, los 8gb de la 4060 son justos para que saque buen rendimiento en todo lo que mostró toro.
@Maxz155 si no fuese por dlss , el cual no está disponible en muchisimos juegos yo creo que no es la respuesta mas correcta, ademas hablando de precios, la arc la encuentras en 260, la 7600 en 330 y la 4060??
no entiendo porque prueban las tarjetas de gama de entrada con procesadores de gama alta, se sabe que si alguien compra una tarjeta de gama baja no va a tener con que comprar un procesador de mas de 400 dolares.
una de un solo slot que sea mejor que la 6400 de 4 gb con menos de 75 watts existe. que no sea la 3050 de yeston porque no la envian a latam. la 550 de 4gb es mas malita?
La rx 550 de 128 bit a 4gb es la mas basica, la integrada de la 5700g esta a la par y la nueva de 8700g la supera ( aun con la memoria ddr5 que sigue siendo mas lenta que la gddr5), la rx 6400 de 4gb sigue siendo la grafica lp pci 4.0 x 8 mas accesible por menos de 75 watts , pero solo la recomiendo si la encuentras muy economica ( abajo de 100 euros )
Hace 10 años intel se creia dios, ahora esta mendigando y luchando para no morir, a Envidia le va pasar lo mismo eso de que vendan graficas a 2000 palos es una señal.. salu2
El fluid motion frames no es lo mismo que el fsr, ya lo comenté en su momento y no tiene comparacion es como si pones el software que hay en steam que es un pseudo dlss pero no es dlss, te da mas fotogramas a costa de bajar calidad y meter mas latencia por eso no lo uso, solo uso lo que viene de serie con la grafica😃
Si AMD tiene el AFMF para las Rx 6000 y 7000 y viene a ser la que "compite"(sinceramente el de Nvidia es mejor) con el frame generation de Nvidia, este caso que ya te dijo toro tocho de paso que el está usando son rescalado no generación de frames(que es poner una imagen generada previamente entre los cuadros), que el dlss, XESS y FSR trabajen de forma diferente ya es otro tema, pero en esencia hacen lo mismo que es tomar una imagen pequeña y la rescala en una resolución mayor.
Lo que pasa es que una gama media actual ya de hecho es muy alta. Nomas mira donde estan las consolas mas potentes. Yo tengo la 7800 x3d y la 4070 ti super. Y las consolas estan muy lejos de eso
Toro te falta poner el Idle de las graficas sin carga. Me encanta elo cinsumo de esta B570, 50% mas eficiente que amd, y 20% a 30% mejor que Nvidia. Se notan los drivers, donde Intel va bien de Drivers casi le mete un 50% de eficiencia a Nvidia, por rendimiento-Vatio. AMD muerta. AMD va tener que mejorar mucho éstas futuras RX 9000 para igualar o lograr superar la eficiencia de Intel (rendimiento por vatio). Quizás usen los 4N, contra 5N de TSMC en Intel. Sin contar rendimiento por vatio, ni siquiera por Drivers optimos, Intel llego a meterle un 50% a Nvidia con algún juego. Que se prepararen para Celetian en 2026, sí Intel desarrolla mejor compatibilidad con los juegos; hablamos de mejorar rendimiento con menos consumo (AMD es quien corre más peligro) quizás usando 3N de TSMC (no es seguro esto, más probable sean los N4P que a estas alturas ya están funcionando y son más baratos). 2026 se puede poner interesante en gama media (Nvidia usaría quizás la Gama Super RTX 5000). Gracies Torete.
Intel se durmio tuvo oportunidad de domidar ambos mercados de procesadores y gráficas pero se confiaron ahora mendiga en ambos pero parece que con las intel arc no quiere amagar va bien
Que buen video hermano, me gustaría saber que opinas sobre este ensamble para edición video 4k en Davinci y Premiere usando H.265 y 264 en la línea de tiempo sin proxys: Intel I7 12700K + Intel Arc B570 vs Ryzen 9 3900x + Intel Arc B570, cual ensamble es mejor que sea fluida la edición en la línea de tiempo.
La gráfica no consume mucho, pero fijarse que hace que el micro consuma un poco más; de ahí que estas gráficas con CPUs modestas se encuentren con ese cuello de botella, rindiendo mucho menos, lo cual es un fail. GPU barata para PC modesto y ahí funciona peor. Ya tampoco vale probarlas todas en el mayor micro posible, más lioso aun.
Todo este rollo de IA, raytracing y tal, está dando como consecuencia juegos cada vez peor optimizados. No parece mala gráfica, sobre todo por consumo y precio, PERO no me fío un pelo de los controladores de Intel.
Baia jopo de objetividad e imparcialidad la de este hombre poniendo una gráfica de B570 260 -270 dólares contra de 4060 340 -400 dólares. Y encima la B570 le toca las bolas y sin usar su generación de fotogramas porque apenas la va a implementar 😂. Conclusión. Intel acabo con el negocio de AMD y Nvidia de vender graficas de entrada con limitaciones de VRAM a alto costo Pero a como te creas estos creadores pagos y con patrocinio detras de la puerta, vamos a volver a lo mismo O porque creen que AMD e Intel ni mencion de la 5060 y la 8600, porque estan buscando como vender esa basura con 8 Vram por encima de los 250 -300 dólares 😂
me encantan los inicios cuando sale el de las gráficas el del procesador y el de Intel yo me quedo con el personaje de Intel con el gorrito pues yo yo pues yo casi que me voy jajajaja eres un grande Toro Tocho jajaja :)
Cuando salga el core ultra 3 capacitado para productividad y con las nuevas tegnologias las personas con ryzen 5 5600 y i5 12400 van a llorar sangre haha
@@letkuz30 esos core ultra 3 vendran con mas e-cores que solo sirven para programas de renderizado, en todos los demas programas profesionales y videojuegos son inservibles
@@maletaso esos cores E son iguales a todos los demás, y que yo sepa esos cores E también sirven para jugar, literalmente apaga los P-cores y podrás jugar con E cores,aparte hacen de support ahora es muy probable que el cpu reduzca su porcentaje de uso total gracias a esos p-cores porque literalmente el core ultra 5 225 y el 14400 la diferencia es todos los juegos en uso de cpu es del 5% apesar de tener los mismo núcleo P(6P) xd es una tontería creer que esos núcleos E no van a mejorar el core ultra 3 para jugar tambien Segundo, el cpu mejora en 200mhz aparte de IPS mejorado, solo de base optienes 5-10% en ese apartado Por si acaso digo esto pero el único cpu core ultra que tienes mejora respecto a su generación pasada en velocidad de reloj será el core ultra 3, y literalmente el problema que presentaron la mayoría de core ultra fue que perdían 5-20% porque literalmente el core ultra 9 y el 14900ks tiene alrededor de 500ghz de diferencia en reloj, apesar de tener mejoras en núcleos Así que si, si no guiamos en como rindieron y las diferencias respecto a la generación pasada entonces el core ultra 3 será el único que rendirá mejor al no presentar este recorte respecto a su generación pasado
@@KaiserWolff2 na, los E-cores tuvieran mejoras desde la 12gen y estos si son datos comprobados y probados, ahora mismo un E-core sería la mitad del un núcleo de potencia aunque algunos dicen que es un 60% un núcleo de potencia, 🤣tampoco alucines en lo que te dicen los famboy de AMD porque aún si un i5 o i7 tiene núcleo E seguirán siendo aplastantemente mejores, aún mantienen los 6-8P-cores respectivos en plus de tener un support para tareas intensivas, no pierdes nada al tener núcleo E, Además los core ultra 3 saldrá en 150$ si sale una versión F costará 135$ es lo más seguro porque así salieron todas las demás generaciones, y terminan en 100$ al final, el ryzen 5 7400f así como el 7500f siempre costaron 150-170$ y probablemente no toque ni los 130$ y costará unos 140$ y nunca bajara de ahí,(buen precio) pero solo sería un cpu que cubre la experiencia gaming, sigue teniendo peor calidad precio que un i5 12600Kf en 150$(Amazon) 10 núcleo, los mismo 6p con los núcleos de apoyo que te darán un rendimiento mejor en el PC para hacer más cosas que solo jugar, Y no me cabe duda que el core ultra 3 terminará siendo más barato que el 7400f y aparte que conseguir estás versiones especiales es difícil, probablemente venda más un i3 que las versiones especiales del 7500f y 7400f por disponibilidad de tienda
Muy feliz de ver nacer un nuevo competidor
nació hace 3 años we, xd
Me encanta la sinceridad y el enfoque que tiene este hombre con su audiencia 🙌🏻
Muchas gracias!!
@@TorotochoReviewsestoy de acuerdo con @Jesus.
Me gustaría un vídeo igual pero con la b580.
Hay poca claridad en otros vídeos.
Tengo entendido que una es 4.0 y otra 5.0
No hay disponibilidad pero me alegra que exista otro competidor más en las gráficas
Quien nos iba a decir hace 10 años que intel iba a estar mendigando mercado.... Las vueltas que da la vida.
Es una buena moraleja, cuando eres lider es importante no dormirme en los laureles porque terminaras mendigando y con mil problemas mas. 😂
Siempre ha sido un tira y encoje entre AMD e Intel, un ejemplo los Pentium 4 y los Pentium D fueron una generación bastante mala y atrasada, aún así la cuota de mercado de Intel sigue siendo bastante importante aunque sus acciones han sufrido bastante.
una pregunta se puede entrenar de manera local lora flux con las graficas de intel
Merecido, por vender lo mismo durante 8 años sin mejoras, es lo que pasa por bajar la guardia e ir de listos
ojala eso le suceda a nvidia por que se les esta llendo los precios a las nubes
como mola la camiseta de la manga del oso jaja
😂😂, es un jersey
A mí me parece un pijama.
Las intros son cada vez mejores JAJSJJSD
Pues esperate a la del video de la 5090🚬😏
@@TorotochoReviews se vienen cositas
hola toro tocho la marca de llano de as bases chinas con ventiladores ya tienen la verción12 de esa base a mi me gastaría que sacaras una reviw de esa, porque me gustaron los videos que sacas te esa ves 😀 👍
¿Podrías hacer pruebas con rasterización pura? Me gustaría ver el rendimiento sin ray tracing ni tecnologías de reescalado.
10:00 Configura el render de blender en buckets para ahorrar memoria, también trata de usar la última versión, ahora la 4.3.2 también sería interesante una prueba de Vray
intel viviendo en su realidad paralela con cpus a 300W y graficas consumiendo 80W ajajajajaja
Tal cual. Quien lo diría. Me parece vergonzoso que la 7600x consuma el doble...
No entendi
@@JoshTrue-xt9bf Que los procesadores consumen energia 4 veces mas que sus graficas
@cbmontana7630 los procesadores de amd que he tenido gastan el doble que los de nvidia haciendo lo mismo. Ahora con la 4080 ti super ahorra mas que las generaciones anteriores
El mejor y único reviewer al que le creo con total confianza. Esperando con ansia review de las 9000 de amd.
no esperes mucho de las 9070 de amd, ya que ya no harán mas graficas de alta gama para gamers, solo haran graficas pedorras como la b580 rtx 4060 y rx 7600, amd ya esta redirigiendo sus presupuestos a graficas para servidores de ia, ahi esta donde le quiere ganar a Nvidia, los gamers defraudamos a amd, con su gran generacion RX 6000, pero nadie los compraba
Muy buena intro...
que calentito el pijama❤
En Marvel Rivals, tienes activada el Xess (incluyendo el modo nativo que es como si fuera el DLAA), la generación de Frames de Xe y el Low Latency de Xe.
Por cierto, se supone que en unos meses veremos las B700 y a final de año empezaremos a ver las Celestial X3 (ya están terminadas desde antes de diciembre, están en la mejora de software y nuevas características asociadas a él)
Ya está agotada en Newegg y de ahí pensaba comprarla
Hermoso setup, cuando el vidio.
En la intro tenías que haber dicho: pos yo, tengo salud (financiera no) creo
pregunta, pq en tu video dices q consume muy poco, pero veo la grafica en una tienda de computacion y en las specs dice q aprox consume 250wts
I like the card as it was $219 usd for me plus $4.99 shipping and $15 tax (VAT), been playing some Crysis Remastered with it and a game you should try on B570 as to be DX 11 based. enjoyed the review with english ha ha.. wanted to make the buy before incoming tariff wars.
jajajajaj que buena la intro
El consumo y las temperaturas estan muy llamativas
De hecho amd es mas gstalona. Mi rx6800xt nitro + gasta el doble que mi 3070 y mi 4070 Ti super es la que gasta menos jugando a la misma calidad.
jajaa ese manologo estubo bueno .. excelente video viejo ... gracias.
Cómo ha evolucionado la aplicación de Intel ? Ya está al nivel de Adrenalin?
Has visto ese consumo...89W a maxima carga 😮😮. Buen video
Haciendo undervolt en la 4060 pasa a consumir 92w
@@BotSergioun cop hablando😅
@@CarlosVilchez-q4g mm??
Creo que han faltado pruebas sin reescalado para ver la potencia bruta de las tarjetas, y pq es un modo que siempre se va a poder jugar, (no todos los juegos tienen reescalado).
Otra prueba necesaria que nadie hace es jugar por debajo del modo ultra, y ver la estabilidad, fps minimos y eso.
Tambien ver como se comporta reproduciendo video.
Y a ver sin un dia haces review de tarjetas en linus, para saber cual es la mejor para los que no quieren windows.
Saludos a todos.😊
Ahí tienes el 1%, el Frame time y el avg de FPS, con eso te dice la estabilidad, lo de jugar en alto o ultra ya es para que la gráfica sea el cuello de botella y de tener problemas de estabilidad lo notarias en cualquier resolución y calidad
Lo de reproducción de vídeo lo veo incensario si te refieres a por ejemplo reproducir 4k en TH-cam, yo solo lo veo que se lo hacen a integrada de chips de baja potencia o si acaso en gráficas demasiado antiguas para ver cómo se comporta en entorno moderno, en una gráfica dedicada actual es innecesario
En probar el Linux ya el vídeo se haría muy largo aparte que probablemente en lo que respecta a nivel de usuario promedio muy poca gente lo usa aparte que posiblemente en este caso los drivers de Linux para estás Intel Arc No funcionen bien(aparte de haber muchas distros y entornos donde puede variar el como vaya)de todas formas sería interesante ver cómo se comportarían bajo protón gracias el DXVK y que estás gráficas tienen un plus de rendimiento.
@jose2822 Pues gracias por tu aclaración, pero hay tarjetas que bajar de ultra a alto, mejoran más que otras, debido al ancho de banda, velocidad memoria, etc. y es interesante saberlo, pq la diferencia en el impacto visual a veces es inapreciable. Lo del video es para ver el consumo en windows, tuve una tarjeta que viendo youtube se comia 50w, una barbaridad, una ruina.
Lo de linus, lo decia por hacer un video exclusivo probando tarjetas y drivers.
En verdad toda la información que se nos pueda dar, nos ayuda hacer mejores compras, como review de tarjetas antiguas, que algunas con las mejoras de drivers y por recibir nuevas tecnologías, pasan a ser compra recomendada cuando de salida no lo eran.
Un saludo.
nuevamente el chiste ver el rendimiento bruto de la gráfica es capaz de dar, luego ahí puedes hacer los ajuste que creas conveniente si eres propietario de una, pero el chiste es eso, de lo que es capaz con lo más exigente
Lo de la tarjeta ni idea por qué te consumía 50w, ¿Estás seguro que era el consumo real? las mediciones por software en circunstancias no son muy precisas que digamos aún así el consumo promedió de gráficas actuales son entre 20w-30w reproduciendo vídeo y posiblemente eso se pudiera ser simplemente algo con la versión de drivers o simplemente que la medición de watt no era correcta ahora que te vas arruinar por eso es exagerado, más bien toro tocho tiene un vídeo de el haciendo cálculos cuando la factura de la luz estaba bastante alta en España por el confinamiento y los resultados y a pesar que eran cálculos al aire no era nada del otro mundo incluso con uso desmedido de 24/7, más bien yo uso un calentador de 2000w y está prendido más tiempo que mi pc tampoco que me suba la factura de la luz para darme cuenta o piense que es una exageración
Lo de Linux nuevamente es demasiado problemático de hacer, si tienes algo de experiencia lidiando con ello es bastante complejo más por el número de distros que existen y sus entornos de escritorio, ahora imagina lo que le tomaría hacer un test con varias gráficas a las vez, yo he usado varias distros no es que me vaya perfecto con estos(sigo prefiriendo usar en mi pc principal Windows porque estoy más familiarizado, eso sí mint y Steam os por la Steam deck me han resultado mis mejores Experiencia en Linux).
De gráficas antiguas si ya no tiene soporte de parte del fabricante no sirve de mucho estar poniendo hacer test, ahora también sería engorroso estar probando varias versiones de drivers, ya si conoces bien en mundo pc lo fabricante siempre le dan prioridad a los últimos lanzamiento y que por lo general hay versiones de Drivers que pierden rendimiento o se rompe con juegos más antiguos y que estás suelen solucionar al cabo de un rato, y de por si tienes miles de canales dedicado a ellos, simplemente pones el nombre de tu gráfica vieja y ves como rinde en juegos si quieres algo más complejo y por ejemplo software de trabajo aunque te será complicado
Te recomiendo para futuras reviews de las graficas, que midas el consumo del sistema en total porque en caso de la intel aunque te marque tan poco, realmente esta consumiendo mas, la B580 consume mas de 150w y en todos los benchmarks se ve como que consume 110w, pero realmente consume mas que la rtx 4060 por ejemplo, que marca mas, pero si con los mismos componentes y todo, pero con diferente grafica, el sistema que tenga la b580 consumira mas.
Marvel rivals tiene xe frame gen también
El Chaval del 8
Por que no las has probado sin el dlss, fsr etc? Ya no sirven con los juegos actuales sin activar estas tecnologias?
es que los juegos se ven mucho mejor usando esas tecnologias que jugandolos en res nativa
Y como va el tema con procesadores antiguos? Que la B580 rendia mal en procesadores antiguos.
Yo si sacan algo de gama media-alta la tendre presente pq quiero mirar algo para sustituir la 6700xt au que mo tengo prisa
Pues para edición de video dicen se come a otras nvidea o AMD
Posdata necesito la review de la sudadera
Hace falta stock!, me gusta que Intel saque cosas decentes, pero es totalmente inútil si no hay ni dios que la compre, una pena la verdad, en Amazon las b580 están a 400€ y por ese precio no compensa, ojalá lo arreglen pronto 🤞.
Cada día más macizo el toro
para lo único que me sirve una GPU Intel, para tener un Encoder y Decoder por separado de la NVIDIA RTX. desconozco si tienen cómo grabar highlights lo cual me vendría super para que así la NVIDIA me renderice solo el juego.
Si tiene para grabar highlights con su software
a ver el resumen esque en la mayoria de juegos la arc gana no?
Es decir mas barata que la 7600 y mejor por lo que veo, o por que ustedes no la comprarian?
Es mejor la rtx 4060, consume lo mismo, tiene el mejor DLSS y frame gen, esta mucho más disponible, no tiene problemas con drivers en ningún juego y no necesita procesador tan potente. Si Intel arreglase todas las inestabilidades, aún así el xess y el frame gen abría que ver como van, estas gráficas son para 1080p no más, y ahí en un escenario real para estas gamas, los 8gb de la 4060 son justos para que saque buen rendimiento en todo lo que mostró toro.
@Maxz155 si no fuese por dlss , el cual no está disponible en muchisimos juegos yo creo que no es la respuesta mas correcta, ademas hablando de precios, la arc la encuentras en 260, la 7600 en 330 y la 4060??
no entiendo porque prueban las tarjetas de gama de entrada con procesadores de gama alta, se sabe que si alguien compra una tarjeta de gama baja no va a tener con que comprar un procesador de mas de 400 dolares.
una de un solo slot que sea mejor que la 6400 de 4 gb con menos de 75 watts existe. que no sea la 3050 de yeston porque no la envian a latam. la 550 de 4gb es mas malita?
La rx 550 de 128 bit a 4gb es la mas basica, la integrada de la 5700g esta a la par y la nueva de 8700g la supera ( aun con la memoria ddr5 que sigue siendo mas lenta que la gddr5), la rx 6400 de 4gb sigue siendo la grafica lp pci 4.0 x 8 mas accesible por menos de 75 watts , pero solo la recomiendo si la encuentras muy economica ( abajo de 100 euros )
La 4060 con undervolt consume 92w
Hace 10 años intel se creia dios, ahora esta mendigando y luchando para no morir, a Envidia le va pasar lo mismo eso de que vendan graficas a 2000 palos es una señal.. salu2
Las pueden vender a 3000 si quisieran, porque la gente las compra.
toro que pasa que muchos de los que hacen review activan la generación de fps en nvdia y en amd no utilizan el fmf que es lo mas parecido
El fluid motion frames no es lo mismo que el fsr, ya lo comenté en su momento y no tiene comparacion es como si pones el software que hay en steam que es un pseudo dlss pero no es dlss, te da mas fotogramas a costa de bajar calidad y meter mas latencia por eso no lo uso, solo uso lo que viene de serie con la grafica😃
Si AMD tiene el AFMF para las Rx 6000 y 7000 y viene a ser la que "compite"(sinceramente el de Nvidia es mejor) con el frame generation de Nvidia, este caso que ya te dijo toro tocho de paso que el está usando son rescalado no generación de frames(que es poner una imagen generada previamente entre los cuadros), que el dlss, XESS y FSR trabajen de forma diferente ya es otro tema, pero en esencia hacen lo mismo que es tomar una imagen pequeña y la rescala en una resolución mayor.
las intros de toro tocho son 🔝🔝
Para mi esta claro el ganador es la b570 rinde casi lo mismo que la rtx y si la buscas en Amazon usa esta mas barata que la de nvidea
yo ya me imagino el consumo de la 5090 XD
El chiste se cuenta solo😂
xess ultra es una resolución mayor a quality
:v
Lo que pasa es que una gama media actual ya de hecho es muy alta. Nomas mira donde estan las consolas mas potentes. Yo tengo la 7800 x3d y la 4070 ti super. Y las consolas estan muy lejos de eso
pues esta si llego a latam, aunque a 300 dolarazos en arg xd
Consume las el procesador que la grafica😅😅
Toro te falta poner el Idle de las graficas sin carga. Me encanta elo cinsumo de esta B570, 50% mas eficiente que amd, y 20% a 30% mejor que Nvidia.
Se notan los drivers, donde Intel va bien de Drivers casi le mete un 50% de eficiencia a Nvidia, por rendimiento-Vatio. AMD muerta.
AMD va tener que mejorar mucho éstas futuras RX 9000 para igualar o lograr superar la eficiencia de Intel (rendimiento por vatio). Quizás usen los 4N, contra 5N de TSMC en Intel.
Sin contar rendimiento por vatio, ni siquiera por Drivers optimos, Intel llego a meterle un 50% a Nvidia con algún juego.
Que se prepararen para Celetian en 2026, sí Intel desarrolla mejor compatibilidad con los juegos; hablamos de mejorar rendimiento con menos consumo (AMD es quien corre más peligro) quizás usando 3N de TSMC (no es seguro esto, más probable sean los N4P que a estas alturas ya están funcionando y son más baratos). 2026 se puede poner interesante en gama media (Nvidia usaría quizás la Gama Super RTX 5000).
Gracies Torete.
La 4060 con undervolt consume 92w
en vez del chavo del 8, el Toro del 8 :V
lo malo de las graficas intel es que no hay formas de encontrarlas y las que hay son carisimas
Intel se durmio tuvo oportunidad de domidar ambos mercados de procesadores y gráficas pero se confiaron ahora mendiga en ambos pero parece que con las intel arc no quiere amagar va bien
intel tiene salud
Que buen video hermano, me gustaría saber que opinas sobre este ensamble para edición video 4k en Davinci y Premiere usando H.265 y 264 en la línea de tiempo sin proxys: Intel I7 12700K + Intel Arc B570 vs Ryzen 9 3900x + Intel Arc B570, cual ensamble es mejor que sea fluida la edición en la línea de tiempo.
Con esos codecs usara mas procesador; asi que deberias ver cual tiene mejor rendimiento y si afecta la memoria ram
Esa intro es genial! 🤣🤣🤣
Recuerden que solo es buena en buenos procesadores si son menores al 5600 es mala
Pal CsGo a 720p, me sirve Kappa 13:56
Prefiero mil veces Xess de intel que la porquería de fsr3 de amd. Observen que feo destruye los cuadros y gráficos en los juegos 😵💫
Las intros son absoluto cine
Alguien más miro el stalker con la gráfica de Intel consumiendo apenas 79w ? Wtf ??????? Y los 14900k con picos de gasta 350w ?
No esta mal ,pero lo que me sorprende es lo terriblemente mala que es la rx 7600.
La gráfica no consume mucho, pero fijarse que hace que el micro consuma un poco más; de ahí que estas gráficas con CPUs modestas se encuentren con ese cuello de botella, rindiendo mucho menos, lo cual es un fail. GPU barata para PC modesto y ahí funciona peor. Ya tampoco vale probarlas todas en el mayor micro posible, más lioso aun.
El problema de estos tests, es el cpu que usas, las graficas de intel tienen cpu overhead
Lo gracioso es que intel solo con 2 generaciones ya supero a AMD que llevan como 2 Decadas fabricando GPUs
La gorra 😂
hehehe ese intro hehehe NO que sabe Toro que los estas sacando .. jejeje
Me pregunto cómo va a posicionar TH-cam este vídeo con tu forma de decir Xess 😅😅😅
Todo este rollo de IA, raytracing y tal, está dando como consecuencia juegos cada vez peor optimizados. No parece mala gráfica, sobre todo por consumo y precio, PERO no me fío un pelo de los controladores de Intel.
pues aquí estoy, haciendo unos benchmark!
mola el nuevo corte de pelo
A 281 euros en ldlc, con este rendimiento y precio no las va a comprar ni dios.
Es que somos PALetos jajaja
Es lo que tendría que valer su hermana mayor como mucho
@@Rokito-jw7te pues yo la acabo de ver en 319€...
@@queardatroya8131 Esa será la B580... no la B570.
Es que por 300 compras una 4060 ventus y puerta. No te complicas la vida con experimentos.
Esta grafica por encima de 230/240 euros no tiene sentido.
Mi amd daba pena con sus tarjeta graficas intel le gana xdxxs😂😂😂
Baia jopo de objetividad e imparcialidad la de este hombre poniendo una gráfica de B570 260 -270 dólares contra de 4060 340 -400 dólares.
Y encima la B570 le toca las bolas y sin usar su generación de fotogramas porque apenas la va a implementar 😂.
Conclusión. Intel acabo con el negocio de AMD y Nvidia de vender graficas de entrada con limitaciones de VRAM a alto costo
Pero a como te creas estos creadores pagos y con patrocinio detras de la puerta, vamos a volver a lo mismo
O porque creen que AMD e Intel ni mencion de la 5060 y la 8600, porque estan buscando como vender esa basura con 8 Vram por encima de los 250 -300 dólares 😂
De las 10 mentiras la que mas he dicho es la segunda 😁
me encantan los inicios cuando sale el de las gráficas el del procesador y el de Intel yo me quedo con el personaje de Intel con el gorrito pues yo yo pues yo casi que me voy jajajaja eres un grande Toro Tocho jajaja :)
Vengaaa Toreteeeee, videazo con intro cringe nivel extra como nos gusta a todos.
mal rendimiento, mejor es la b580
ASJASJ PERO DE DONDE SACA LAS CAMISETAS JASJASAS
0:45 y desaparece la chochada
intel: Yo tengo los mejores 4 núcleos y 8 hilos 😳😳
Cuando salga el core ultra 3 capacitado para productividad y con las nuevas tegnologias las personas con ryzen 5 5600 y i5 12400 van a llorar sangre haha
@@letkuz30 esos core ultra 3 vendran con mas e-cores que solo sirven para programas de renderizado, en todos los demas programas profesionales y videojuegos son inservibles
@@maletaso esos cores E son iguales a todos los demás, y que yo sepa esos cores E también sirven para jugar, literalmente apaga los P-cores y podrás jugar con E cores,aparte hacen de support ahora es muy probable que el cpu reduzca su porcentaje de uso total gracias a esos p-cores porque literalmente el core ultra 5 225 y el 14400 la diferencia es todos los juegos en uso de cpu es del 5% apesar de tener los mismo núcleo P(6P) xd es una tontería creer que esos núcleos E no van a mejorar el core ultra 3 para jugar tambien
Segundo, el cpu mejora en 200mhz aparte de IPS mejorado, solo de base optienes 5-10% en ese apartado
Por si acaso digo esto pero el único cpu core ultra que tienes mejora respecto a su generación pasada en velocidad de reloj será el core ultra 3, y literalmente el problema que presentaron la mayoría de core ultra fue que perdían 5-20% porque literalmente el core ultra 9 y el 14900ks tiene alrededor de 500ghz de diferencia en reloj, apesar de tener mejoras en núcleos
Así que si, si no guiamos en como rindieron y las diferencias respecto a la generación pasada entonces el core ultra 3 será el único que rendirá mejor al no presentar este recorte respecto a su generación pasado
@@letkuz30al mismo precio estara el 7400F, aparye E Cores para jugar🤣🤣🤣 a 8K Nativo tal vez
@@KaiserWolff2 na, los E-cores tuvieran mejoras desde la 12gen y estos si son datos comprobados y probados, ahora mismo un E-core sería la mitad del un núcleo de potencia aunque algunos dicen que es un 60% un núcleo de potencia, 🤣tampoco alucines en lo que te dicen los famboy de AMD porque aún si un i5 o i7 tiene núcleo E seguirán siendo aplastantemente mejores, aún mantienen los 6-8P-cores respectivos en plus de tener un support para tareas intensivas, no pierdes nada al tener núcleo E,
Además los core ultra 3 saldrá en 150$ si sale una versión F costará 135$ es lo más seguro porque así salieron todas las demás generaciones, y terminan en 100$ al final, el ryzen 5 7400f así como el 7500f siempre costaron 150-170$ y probablemente no toque ni los 130$ y costará unos 140$ y nunca bajara de ahí,(buen precio) pero solo sería un cpu que cubre la experiencia gaming, sigue teniendo peor calidad precio que un i5 12600Kf en 150$(Amazon) 10 núcleo, los mismo 6p con los núcleos de apoyo que te darán un rendimiento mejor en el PC para hacer más cosas que solo jugar,
Y no me cabe duda que el core ultra 3 terminará siendo más barato que el 7400f y aparte que conseguir estás versiones especiales es difícil, probablemente venda más un i3 que las versiones especiales del 7500f y 7400f por disponibilidad de tienda