É verdade, o problema é que em breve isso irá acabar, as empresas estão usando essas tecnologias como apoio, e foi oque falaram no vídeo, em breve a tecnologia que era para permitir você jogar em 60 com placa de vídeo antiga ou modelos de entrada vai passar a ser para você jogar em 60 em qualquer placa de vídeo que você comprar kkkkkkkk
vai ser muito util e necessário essas tecnologias mais maduras, mas hoje em dia e acredito que ainda nos proximos anos, eu vejo muito daquela historia que muito se falava de early adopter se dar mal kkk É o tipo de coisa legal de acompanhar evoluindo, até ligar nos jogos as vezes pra ver como tá. Mas usar de fato ainda ta longe, tomara q evolua mais rápido do q eu espero
Sobre problemas de fluidez, imperfeições nas texturas, quadros estranhos e etc, pra fazer um teste mais preciso, vocês do Adrenaline precisam considerar ler os detalhes da documentação da AMD e fazer esses testes seguindo as orientações que estão lá. Eu vou deixar o link pro pessoal ler aqui no final, mas vou adiantar pra quem estiver tendo problemas, o algoritmo de FG da AMD é bem diferente do DLSS, e a AMD informa que para ter fluidez você PRECISA habilitar o vsync e é recomendado que a sua taxa de quadros no jogo esteja atingindo a taxa de atualização do seu monitor. Além disso, deve-se desativar o freesync/g-sync do seu monitor. Por exemplo, suponha que você tenha um monitor de 240hz, e habilitando o FG no jogo você consiga um máximo de 150 FPS. Não vai ter uma boa experiência, porque ele considera a taxa do seu monitor como base pra geração de quadros, e você não tem performance suficiente. Então o ideal a se fazer nesse caso é reduzir a taxa de atualização do seu monitor, por exemplo para 120hz, e ativar o vsync do jogo. Isso resolve todos os problemas de fluidez, geração de quadros, frametime, etc. Eu por exemplo reduzi a taxa do meu monitor de 144hz para 75hz e tudo ficou muito mais fluído e coerente na tela. Sobre o frametime e pacing, detalhes estão na documentação, explicação de porque algumas informações estranhas aparecem no afterburner: community.amd.com/t5/gaming/amd-fsr-3-now-available/ba-p/634265 gpuopen.com/fsr3-in-games-technical-details/
Cara eu tenho um Odyssey G7, toda vez que diminuo o refresh rate e desligo o g-sync do monitor parece que fica meio estranho a imagem, fica com stuttering. Parece que fica menos fluido. E no meu caso eu tenho um problema que meu botão do monitor não funciona direito, e toda vez tenho que deixar o monitor esfriar para entrar no menu, aparentemente pelo Reddit um problema comum nos Odyssey G7. Então ficar trocando de refresh rate toda hora é foda. Resumindo: fiquei bem puto que eles cagaram para uma tecnologia que é super importante e cada vez mais usada que é o VRR
@@Vecchete você pode definir uma taxa de atualização menor diretamente nas configurações avançadas do monitor no Windows, ou no painel de controle da placa de vídeo, ao invés de fazer isso pelo menu do monitor. Também funciona. Talvez essa sensação que vc tenha de que as coisas ficaram meio estranhas seja porque você já se acostumou com um monitor com uma taxa maior. Eu tenho dois monitores, um 240hz e um 60hz. Qualquer coisa q eu faça no monitor de 60, eu acho estranho, até o movimento do mouse na tela é estranho, mas isso é por conta da taxa de 60hz q pra minha percepção já incomoda, é o costume. Através do Windows consigo definir varais taxas de atualizado para o meu monitor, ele da suporte, então 120hz ainda fica ok. Abaixo disso realmente começa a ficar esquisito. Talvez seu caso seja outro, mas pode ser isso
@@LuhShotE tem outro problema que me parece cada vez mais frequente, e que pouca gente se dá conta. Hoje em dia os monitores tem refresh rate muito variados, e as pessoas se apegaram muito ao numero 60 Hz que, em muitos casos, não é a frequência nativa do display. Sem freesync, as vezes vale mais usar uma taxa que seja fração inteira dos Hz do display, do que reduzir no Windows, e aí é questão de fazer as contas. Um exemplo que rolou com um amigo recentemente, que reclamava que 60 fps ficava "engasgando", acontecia por o display dele era 165 Hz, e ai 60 Hz não encaixa. Sugeri *reduzir* pra 55 Hz (165/3), e magicamente o jogo ficou bem mais fluido. O olho humano é muito sensível a variações, e um frametime consistente é mais confortavel que uma taxa alta, mas irregular. Quem tem display 144 Hz pode usar 48 ou 72, etc.
A AMD mostrou mais uma vez que as tecnologias da NVidia são travadas de propósito para os novos hardwares. Dá sim pra ser algo feito por software. Quero ver essa tecnologia nos consoles, vai dar um boost bem bacana em alguns games por lá também.
cara, nao sei se eu to falando merda, mas FSR usa tensor core, que tem em toda placa, e as tecnologias da NVIDIA usam CUDA Core alem de tensor. Mas sim, de qualquer forma, AMD salvando geral, ate pq mto game nao tem DLSS e qm acaba salvando eh o FSR, tipo no Dota
@@Mike-Zz cara, os Tensor Cores são exclusivos das RTX e são usados para aprendizado de máquina, o que o FSR realmente usa são os shaders, que nas AMD são chamados de compute units, e nas Nvidia são chamados de cuda cores. Nas RTX existem os cuda cores, e também os RT cores que são voltados pra ray tracing, e os tensor cores que são voltados pra IA, enquanto nas outras placas existem apenas os shaders que podem ser compute units nas AMD ou cuda cores nas Nvidia (GTX). Existe ainda um outro detalhe nos shaders, até as Nvidia pascal (série 1000) e AMD polaris (rx 580, rx 590, etc) as GPUs faziam apenas uma instrução por vez, mas com a chegada as arquiteturas mais modernas as GPUs ganharam suporte a computação assíncrona e são capazes de realizar múltiplas instruções em paralelo ao mesmo tempo, a AMD pede essas GPUs modernas pra usar o FSR 3 devido a versatilidade maior, no caso todas as RX a partir da 5500XT e todas as GTX a partir da 1650 tem isso, além das RTX
Lembra de ligar o V-Sync! Achei top tbm. 3070 em 3440x1440. Tudo no talo menos textura né (8gb vram) pegava uns 30. Dai FSR3 Qualit pra uns 50. E com o FG foi pra uns 70-80.
@@higorchavess so falam de boca pra fora, e obvio que a 4060ti e mais jogo, e se colocassem pra esses pessoas escolherem(no privado) qual pracas queriam ganhar eles escolheriam a 4060ti
Amd era zoada por ter drivers cagado, hoje ela consegue fazer via software o que a concorrente precisa de hardware pra fazer. Viva a evolução tecnologica
@@malcongr.5674é um software, porém que para ser viável em termos de performance precisa de alguns atalhos em hardware. Voce poderia usar o algoritmo de IA do DLSS FG em CPU inclusive, o problema é o tempo que isso levaria para ser computado. O fator de eles criarem um hardware específico é para diminuir latência e uso de GPU. O DLSS escolhe usar os Tensor Cores e os Optical Flow Accelerators, apenas por um motivo de velocidade e separation of concerns. O FG da AMD na sua média, para o público médio, entrega um bom produto. Porém tem alguns problemas que não são encontrado na Nvidia por causa da arquitetura. No FG da Nvidia a latência consegue ser menor que o os da AMD mesmo usando os mecanismos para diminuir latência, além disso o FG da Nvidia permite o uso da tecnologia com VRR por causa de como é sua implementação, de forma "paralela". Isso é super comum para processamento de IA em sistemas embarcados, na minha área de especialização. Nós usamos Chips especializados em IA, e às vezes vários chips, cada um com uma especialidade para poder através do software acelerar o processamento. Isso é super comum em carros autônomos, por exemplo. Aí você pergunta: não seria possível várias versões de DLSS para rodar em diversos hardwares? Seria possível, mas você aumenta os problemas de compatibilidade e aumenta consideravelmente o custo de manutenção, e fica difícil de fazer o marketing. Esse é mesmo motivo da Apple ser toda fechada.
@@wadson990sim, roda na 1650, mas com uma perda de performance absurda por não ter os tensor cores, o que era para ganhar performance...você perde, tá certo. Mas o que importa é falar que roda né...
Acredito que se tivesse usado o overlay do software da AMD pra mostrar os fps dos games que não tem suporte nativo ao fsr3 o FPS teria aumentado. Acho que o riva não mostra o resultado pq esse FPS não existe no game e sim no software. Isso também explicaria o porquê do FPS abaixar, já que o frame generator está ativo deve consumir um pouco da vga.
Joguei Forspoken no quality com uma 3080. peguei 150+fps e nao senti mudança na latencia e a qualidade... pqp esta incrivel. Cade a galera com a rx580 dragaozinho chines torando nos testes??!?!?
ปีที่แล้ว +25
Está até mais bonito, e segundo a Pichau a latência é menor que nativamente.
Aqui também gostei muito! to conseguindo 240fps travado no 1440p Balanced+FrameGen e 120fps travado no 4k Quality+FrameGen. E tá super fluido o jogo. Parabéns AMD!!!
@não é menor, aquele gordinho não manja nada. Ficou menor porque ele ativou o super sampling, aí aumenta a quantidade de FPS nativo e consequentemente diminui a latência. Ou seja, não foi por conta do FMF.
Aqui a experiência foi muito melhor que a apresentada no vídeo kkkkkkkkkkkkkkkkkkk De 4k nativo rodando a 35fps, só ativando o frame generation foi para uns 65~70fps mantendo os 4k nativo com a mesma qualidade, e ficou bem melhor de fato para se jogar, não senti nenhum ponto negativo na gameplay ou qualidade do game, só senti ganho. E apesar do game ser fraquinho, é um bom game para testar essa tecnologia já que é uma gameplay bem rápida. Não tive nenhum problema gráfico no game, nem por conta de bug do game ou por conta do FSR3, aqui funcionou tão bem que consegui jogar bastante o demo do game, porque fiquei maravilhado com o que a AMD conseguiu alcançar, estão de parabéns. Agora ativando o FSR3 no modo qualidade, ai já sobe para uns 90~100fps e fica bem mais fluido. De 35 ou 40fps já fica bem legal ativando o FSR3, mas se o game já tiver a uns 55fps, ai fica divido. Agora quero isso para ontem no Cyberpunk, não acreditava que isso iria funcionar, mas AMD deu um tapa na minha cara e mostrou com maestria que é possível de fato.
Devemos sempre valorizar essa concorrência entre empresas isso incentiva o crescimento e qualidade do serviço .... Não existe crescimento dentro da zona de conforto !!!
em fullhd em qualquer jogo perde qualidade bem visivelmente tanto o dlss e principalmete o fsr,essas tecnologias so fazem sentido em 2.5k e 4k@@laformosa9128
aq funcionou na minha RX5600XT, vi que no comunicado da AMD eles deram suporte agora com a seria RX5000 toda, mas ta com inputlag bem zuado, só resolveu travando a 60fps, mas no alto com fsr 3 no modo qualidade (1080P) com o gerador, o fps saiu de 40 para 80fps (testei só o inicio da demo)
Pra mim ficou uma merda mano. O gerador de quadros do FSR 3 trava o VRR, meu jogo na minha tela ficou pior a experiência que sem o gerador de frames. E nem deve mudar isso pois faz parte do algoritmo se basear em um refresh rate travado.
@@Vecchete provavelmente é porque quando vc tem VRR (Variable Refresh Rate) no seu monitor/TV já é muito mais tranquilo jogar com taxas menores que 60FPS, acredito que esse recurso faça mais diferença pra quem tem monitor travado em 60Hz, onde o "judder effect" incomoda mais. Então provavelmente vc tá sentindo mais falta do VRR do que da fluidez trazida pelo frame generator. Não sei se isso pode mudar em updates futuros, alias, não sei se tem essa limitação no FG do DLSS tb.
@@ViNiMiCoRRizA pelo que eu vi é limitação do FG do FSR que se baseia do refresh rate da tela pelos cálculos. Sim, não tem benefício nenhum para mim. No meu caso, meu monitor nem funciona legal abaixo de 90 fps, porque o VRR range dele é 90-240Hz
Pô, maneiro. E ainda teve um detalhe, que só prestei atenção no Immortals é que de 21% de uso de CPU rodando a 43fps sem gerador de quadros, caiu pra 11% rodando a 74fps com o gerador de quadros, já que o consumos de performance efetivo de CPU deve ser próximo ao de 37fps (74 / 2) 29:00.
Eu achei sensacional, ainda mais se você não ficar olhando frame-by-frame! Com um Xeon e uma RTX 2060 Super, dava pra jogar Forspoken no Alto oscilando entre 40-60 fps com VSync em FullHD. Usando DLSS, segura bem melhor a 60 em vários locais, mas não dá tanta diferença - talvez um gargalo de CPU aqui. Usando o FSR3 sem o FMF, em trechos que fica entre 40-50 já fica em 60. Usando o FSR3 Qualidade com o FMF ativado já fica travado em 60 fps, mesmo no gráfico em Máximo. Sem o VSync já chega em 90 com o gráfico no Máximo. E o frametime fica bom e não dá pra perceber problemas gráficos sérios e nem input lag. Certamente uma boa solução para quem tem aquele Bottleneck de CPU. AMD está de parabéns! Só falta vir para Starfield pra mostrar mesmo a que veio!
ปีที่แล้ว +40
AMD fez uma bruxaria, demorou mais veio muito bom, fora que o ganhou de fps é insano, vi a 7600 ganhando 200%.
seria a AMD trazendo uma gpu que é "acessível" ao consumidor, com uma tecnologia que faça ele rodar o jogo da forma que ele quiser? 7700xt indo pra 4k a 60 fps+, os cara tão de parabéns dms po
@@victormorsil você tem que ver essa tecnologia pro futuro quando essas placa serão absoletas no poder bruto, quando o jogo estiver a 20 fps você vai rodar a 60
Minhas impressões com Forspoken (demo) em 1440p: A qualidade do FSR3 em si parece muito boa. Em quality ou mesmo em balanced, a qualidade da imagem fica muito boa. Só tem 2 bugs bem perceptíveis que é nas bordas das nuvens e em umas magias azuis que ficam no chão (cria uns artefatos poligonais enormes beem estranhos). Sobre o FG: só consegui a fluidez de fato desativando freesync, enhanced sync e ativando o vsync no jogo. Ai sim, ao ativa-lo parecia mais fluido. E sinceramente, se eu não fico forçando em mexer a câmera muito rápido, não da pra perceber na jogatina normal (com FSR3 em Quality, dando mais de 60 quadros nativos). A tecnologia está bem funcional!
@@CuriosoLtd peguei a 5500 xt ainda bem q vai chegar nelas tbm, de começo achei q so chegaria o frame generator nas rx 7000, quando soube q as 5000 tbm chegaria ja deu ate um alivio kkk
Testei na RX 6650XT com o jogo no máximo - RT OFF - 1080p FSR3 QUALITY e Frame Gen on e tô rodando na casa dos 110-140 frames, não senti latência ruim e tô jogando com vsync off e freesync do monitor ativado.
Sempre preferi usar gpu NVidia com processador AMD. Pois tive uma HD4870 e RX 5700 que só me deram dor de cabeça Em 2020 eu estava com um Ryzen 2600x + 2070Super (que peguei após ter dor de cabeça com a RX5700)+ 2x8gb 3400MHz Rodava muito bem os jogos Hoje estou com um Ryzen 5700x + RX 6750xt + 2x 8gb 3200MHz. E estou impressionado no quão estável e "liso" são os fps. Não estou comparando a quantidade de fps. Mas sim a estabilidade. Sempre configurei os games para usar em média 70% da GPU, para ter alguma sobra, e caso necessite de mais processamento, não haver quedas. Então nessa mesma situação, a RX6750xt sempre parece estar rodando mais "liso" comparada as duas últimas placas que tive, que foram a RTX 2070 Super e a GTX 1660 Ti. Meu preconceito com gpu AMD acabou. Ah e o FSR ligado em qualidade, tem imagem melhor que o DLSS em qualidade.
Me pergunto se o nosso carequinha do adrena, algum dia foi professor. Explica as coisas com tanta leveza que os vídeos de meia hora passam voando. Excelente vídeo, como sempre.
Pior que é vdd mano... no vídeo o cabra calvo falou dos artefatos serem parecidos com os da Nvidia mas pra falar a vdd, aquele ghosting maldito do DLSS é MUITO pior
nah. eu uso dlss3 no starfield e é muito filé, vc nao consegue dizer q ta com frame gen, só que está manteiga o tempo inteiro 120fps na minha rtx 4080 mas imagino que o fsr3 também vai ficar top
Pessoal a amd indica ativar o frame generator de 60fps acima pra ñ zoar o frametime, ou seja, a fluidez pode ficar prejudicada caso sua placa ñ rode 60 nativo, ativa o msi after burner que vcs verão isso.
Eu ainda acho que AMD e NVidia, por trás das tretas públicas, são tipo colegas de trabalho rsrs. A forma como elas se complementam parece orquestrada, porque se por um lado a NVidia investe mais em pesquisa pra trazer novas tecnologias, e cobra mais por isso, a AMD vem logo em seguida refinando e popularizando os recursos.
testei o jogo em uma rx 6600 e travei em 70 fps pelo msi, em 60 eu achei que nao tava fazendo diferença... simplesmente perfeito, preset do alto com qhd com folga na gpu e uma maravilha
O melhor é que não tem essa palhaçada de limitar a X geração. É a primeira vez desde que eu comprei a minha 3060Ti que o FSR parece interessante como uma substituição ao DLSS
É melhor ainda se você juntar dinheiro para comprar uma placa melhor e não usar nenhuma dessas muletas kkkkkk DLSS e FSR são duas muletas, o DLSS tem uma pequena vantagem gráfica, mas é ruim igual
@@Veccheteconcordo com você que são muletas, mas até RTX 4090 precisa usar DLSS / FSR pra rodar em 4k com ray tracing, sem contar a má otimização natural dos games recentes que torna essas muletas mais necessárias ainda.
Em resumo: O gerador de quadros veio pra ficar, mas ainda está faltando mais alguns anos de maturação. Eu vejo que será uma realidade pq assim como o próprio Diego disse, com uma tecnologia dessa as placas ficaram mais baratas de serem produzidas, consumiram menos energia, logo não vai precisar de uma fonte de 1000W pra alimentar e nem de um suporte pra segurar os trabuco de 50kg e aí as tecnologias de força bruta ficaram para as placas entusiastas, as de final 90 ou 9000 da AMD.
Concordo, e vou até um pouco além. Tenho uma opinião um pouco polêmica, mas acredito que a adoção do raytracing é indispensável pro avanço acontecer. Vejo grande parte dos problemas que a gente tem hoje, como alto consumo, jogos quebrados, etc, acontecendo por conta do pipeline baseado em shaders estar próximo do limite de escalabilidade. Uma mudança de arquitetura precisa acontecer, mas como todo período de transição tecnológica, nada se faz do dia pra noite. E o pior é que não é a primeira vez que vejo isso. Há uns 20 anos aconteciam exatamente as mesmas discussões na transição das GPUs de pipeline fixo pra shaders programáveis. Muita gente nem lembra disso (ou nem era nascido mesmo xD), mas eu chorava com colegas falando coisas como "dá pra fazer reflexo e bump-map em pipeline fixo, não precisa de shader pra isso" e "shader é muito mais pesado e o resultado nem fica tão melhor assim". Exatamente os mesmos argumentos que hoje usam pra criticar raytracing xD
Tu falou tudo, e era exatamente isso q eu pesava até eu ler o seu comentário, eu era do time q dizia "Ah, o RT nem faz tanta diferença nos gráficos assim e é só pesado, então é só se desapegar essa tecnologia".@@SauloMansur
A vdd é que a AMD é uma das melhores empresas de tecnologias, ela tem o freesync e FSR livre que pode ser usado por até placas da NVidia, tem seus processadores com vídeo integrado que quebra um bom galho, e ainda tem suas placas de vídeos mais acessíveis.
Pontos que não foram citados no vídeo e que valem a pena saber: Atualmente o FG parece não se dar bom com VRR(Freesync/Gsync) ou seja se você estiver usando um monitor 120hz+ com VRR ativado, você só ira conseguir ver a fluidez do AFMF se seu fps estiver próximo dos hz máximos do seu monitor; Você precisa do Vsync ligado para que o FG funcione direito; Mesmo abaixo do fps recomendado o ganho é absurdamente alto, então diferente do recomendado, testei o game a 30fps nativo subindo pra 60+ e a fluidez ocorreu, PORÉM ela simplesmente não existe se você deixar VRR ligado e VSYNC desligado. Só vai aparecer FPS mais alto no MSI afterburner mesmo; No caso do AFMF via driver o MSI Afterburner não consegue captar os fps gerados por isso que parece estar "perdendo" performance; EM RESUMO Se você realmente quiser aproveitar a tecnologia em toda sua glória, DESATIVE FREESYNC/GSYNC no monitor e no sistema (se tiver) e ative o VSYNC
Meu monitor é de 240Hz, e achei uma merda esse frame generation, pois o FPS final ainda está bem abaixo dos 240 hz então tem um stuttering absurdo. Ligando v-sync e desabilitando o g-sync não resolve isso. Para mim ficou inútil essa tecnologia sinceramente.
@@Vecchete putz então é mais um ponto a se considerar. Você desabilitou o gsync no monitor e no painel? Também é bom deixar o game em fullscreen exclusivo. A título de teste, tenta colocar os hetz a 144 (que é meu caso) e vê
@@Vecchete pelo oq explicaram em alguns comentarios, se seu monitor é de 240Hz, o jogo OBRIGATORIAMENTE tem de rodar a 240FPS se a sua placa nao consegue, o FSR 3 não vai te ajudar ... no FSR3 tem de ser FPS = Hz pelo oq eu entendi
@@multiverso Na verdade não necessariamente, meu monitor é 144hz e testando o Forspoken a 2k em uma 3070, nativamente ele entrega +/- 40fps e desabilitando o VRR no monitor e ligando o VSYNC o game entrega os 60fps+ coma a fluidez do frame nativo mesmo. Acho que a questão maior está no fato de não ser compatível com VRR e ser obrigatório o vsync
@@wellingtonfleury9787 eu mudei para 144 e ficou bom. O problema é ter que mudar manualmente toda vez. Considerando que o botão do monitor é uma merda, não é nada prático, e nem trocando ele fica melhor vai ser um parto trocar toda hora (quem tiver dúvida tem bastante discussão sobre isso nos Reddit da vida sobre o knob button do Odyssey G7). Paguei 700 euros por um monitor que o botão não funciona kkkkkkk. Enfim, essa é uma boa solução se eu for sentar e jogar por muito tempo. eu seto a taxa de atualização até terminar de jogar. No entanto sempre que eu puder usar o frame generation da própria Nvidia eu vou optar.
Tomara, eles deixaram uma nota dizendo que apesar de oferecem suporte a partir das RTX 20, pode funcionar em GPUs mais fracas. Minha 1650 agradece qualquer respiro
Pelos testes que vi, a opção de ligar o FG nem sequer aparece em placas não suportadas (incluindo as 1660). Só lhe resta usar o FSR 3 upscaling enquanto der.
Vai ajudar sim, se teu jogo rodar a 30 FPS, a Pichau fez teste de analise também e percebeu que ativando a geração de quadros a latência foi reduzida!!! Ficou melhor do que jogar nativamente e muito melhor do que usar o DLSS 3 que cria mais latência. O FSR 3 ta dando de lavada na Nvidea. Conseguindo 200 porcento de ganho em placas RX 7000 e conseguindo 100 porcento de ganho em placas da Nvidea.
Errado. Aquele gordinho não manja nada. Se o jogo tiver a 30 fps e ativar o gerador de quadros, vai ter um delay enorme, tão grande quanto jogar na nuvem.
Sempre fui consumidor da nvidia desde 2007 com minha finada 8800GTS até 2016 com a 1060, a partir dai fui pra AMD e digo deem mais valor a AMD, hoje uma RX 7900XTX bate uma 4080, se não fosse a amd o que seria de placas como a serie 20 e 30 da propia NViDIA? acho palhaçada a NVIDIA cagar pros seus consumidores e vir a concorrente e abraça-los. alias, deveriam ficar revoltados pois quem apanha e continua amando e só mulher de traficante! fora que as placas AMD envelhecem bem demais uma RX 580 dá um caldo até hoje e uma RX 5700 que perdia pra uma 2060 hoje bate em uma 3060 com o avanço dos seus drivers, AMD é um exemplo hoje no setor de processador e placa de video.
Diego, no caso do AFMF ativado pelo driver, vc tem que usar o próprio driver da AMD pra poder capturar o framerate. Se vc usar outro programa, como o MSI afterburner, ele não vai capturar os frames gerados pelo driver, então vai parecer que não tá funcionando.
No geral AMD sempre teve o melhor custo x beneficio, além de não "abandonar" os consumidores menos afortunados. E se depender da Nvidia isso nunca mudará... kkkk
No teste do AFMF o Red Devil Redemption ( 21:18 ) estava rodando em 4k 60 FPS com o AFMF off, essa taxa de quadros não é suficiente pra ativar a tecnologia segundo o próprio vídeo relata no início ( 55 FPS pra Full HD, 70 FPS pra QHD, o que me faz deduzir que pra 4 k necessitaria mais que 70 FPS pra poder utilizar essa tecnologia ). O mesmo erro deve ter ocorrido com o StarField.
cara, é bug msm, tem video de gente ativando o afmf em starfield inclusive, com o game a 50fps e dobrando pra 100fps, foi bug msm, mas tudo bem pq ta no beta né, e ta rodando mt bem inclusive, msm em 50fps, vou pegar o link e mando aqui edit: peguei aqui mano, se liga: th-cam.com/video/XstgDL8zbWc/w-d-xo.htmlsi=1buUmF8IuQBrz42J
Testes muito bons como sempre, mas falar que não serve quando as taxas de quadro estão baixas logo depois de ter feito o teste no Forspoken de 26 fps pra mais de 70 com fsr e frame generation é incoerente né. O frame generation da Nvidia também foi bastante utilizado pela própria para conseguir chegar nos 60 quadros usando o Raytracing Overdrive no Cyberpunk em apresentações da marca.
Po, a atualização do Immortals saiu 2 horas da tarde rs. Tá bem melhor pra testar, porque tem Reflex pra Nvidia e Anti lag + pra AMD (Forspoken só tem antilag normal). Além de que parece melhor implementado o recurso lá
pelo oq eu entendi, o fsr 3 que gera quadros pelo driver faz isso independentemente do jogo, e o msi afterburner não consegue capturar esses frames gerados, então ele só conta o fps do jogo "cru", pra ver o fps com o gerador de quadros tem q usar a ferramenta da amd msm q aí sim vai aparecer. vi um cara explicando isso num vídeo sobre o gerador de quadros por driver no cyberpunk do canal terra nigma
vai não man, Nvidia, intel e amd jamais deixarão isso acontecer, fora que as pessoas sentem prazer em ter um hardware novo, sinceramente eu não quero isso pois sou da epoca dos cartuchos e tudo facil demais se perde o valor.
@@AngeloFSP tem man eu tinha o sistema da Nvidia e o xbox cloud na pandemia, mas nem de longe me fez trocar o hardware físico por eles, eu digo que não quero que vire uma plataforma principal monopolizada, más tem gente que nao pode montar um pc top ou ter um console longe de mim querer que deixe de existir.
Mano!! tanto AMD quanto Nvidia, estão caminhando no desenvolvimento de uma tecnologia muito complicada e cada vez mais eficiente, baseado na tecnologia anterior uma das outras é que a próxima está sendo desenvolvida se arranjando toda cadeia de processos para a criação de quadros. Belo desenvolvimento. Parabéns para ambas as empresas 👏👏👏👏 que venha o próximo desenvolvimento para nosso benéfico 😆
eu acho incrivel essas novas tecnologias, pq querendo ou n já tá um negocio mt aceitável já no lançamento, é questão de tempo até eles aprimorarem mais a tecnologia, só avanços daqui pra frente
Sobre o gerador de quadros via Driver, já saiu no canal do Peperaio uma review mais detalhado. Aparentemente ele funciona sim, mas softwares de terceiros não conseguem ver os FPS corretamente por que eles capturam via Game Engine, e o FS3 via driver gera os quadros nos Driver. Tem um disclaimer sobre isso na página do driver no site da AMD.
O problema das texturas sem o FSR é a falta de memória da RX 7600, por conta dela ter somente 8gb. Quando vc habilita o FSR, ele renderiza em resolução menor, usando menos memória de vídeo. Isso acontece nas nVidia tb.
a placa testada foi a 7700XT de 12gb, é o jogo que não se ajuda mesmo e olha que hj essa é a melhor versão do jogo, imagina testar essas coisas 1 ano atrás kk
@@DiegoAraujoOficial eu entendi 7600 pelo que ele falou...Mas, infelizmente, até 12gb já tá ficando pouco para vídeo ultimamente... Haja dinheiro pra pegar algo decente com 16gb ou mais... kkk
Quero ver desempenho do FSR3 + geração de quadros no microsoft simulator e Dead Space só pra ver se AMD operou um milagre msm, pois isso me faria comprar um acessível RX 7600 ao invés da desejada e caras RX 7700 XT ou RTX 4070.
O FSR 3 chegou no Starfield ontem. Eu tenho uma RX 5600xt que, segundo a AMD, essa GPU não teria compatibilidade ao gerenciador de quadros.... Mas, o gerador de quadros do Starfield está funcionando muito bem na minha GPU...
Em fim... A AMD!!! Mantendo a tradição de "envelhecer como vinho", só q nesse caso ai, ela esperou muito tbm haha. Mas que bom, a tendencia agora é ela melhorar, e a NVidia vir com alguma outra tec. para poder fazer valer o seu preço, pq em poder bruto, n se comparam pelo valor já, e ai ela gnahava com DLSS 3 (n mais pelo q parece), e em RT (lembrando q placas AMD tem mais vantagem com o FG do q a rival, e nesse caso, pode extinguir essa vantagem da NVidia). Vamos ver agora as implementações, pois até o FSR2, quando bem implementado, era muito bom, com esse então, n tme desculpa.
Na real o suporte do fsr 3.0 com fluid motion foi mudado e agora funciona com toda serie RX5000. Tanto que o gerador de quadros funcionou na minha RX5600XT
@@GadreelOFC o desempenho da 4060 é muito parecido com a da 3060. Se bem me lembro, houve testes em que a 3060 superou a 4060. O argumento de venda era de que o DLSS3 talvez fizesse valer a pena a compra. Contudo, o FSR3 faz cair por terra esse argumento. Assim, o desempenho da RTX 3060 c/ FSR3 será muito parecido com uma RTX4060 com DLSS3/FSR3. É como se a RTX3060 fosse uma sucessora da 4060 pelo seu desempenho estar parecido, podendo em alguns casos até superar. O final vou deixar algo de errado não está certo kk. No minuto 20:40 a RTX 3060 supera a 4060 em 1440p Ray Tracing:th-cam.com/video/rWIjGea3S4U/w-d-xo.html Para concluir, a ideia do comentário é ser uma ironia com um fundo de verdade.
Só para rodar o pacote Adobe Creative Cloud é exigido uma memória mínima de 12 Gigas. Mas fica melhor se o mini PC estiver com DDR5 de 32 Gigas e frequência entre 5200 e 5600 Mhz.
Assisto o vídeo e dá muita admiração pela AMD. Enquanto a Nvidia canibaliza seus próprios produtos, a AMD possui ética. Ética que se estende para o suporte das Cpus no AM4 e, quem sabe, no AM5.
Também peguei essa no começo do mês. Saí de uma rx 580 kkkkk diferença absurda. Só esperando esse fsr3 pra dar uma estabilizada no starfield, porque varia muito
são as melhores situações, ele é computado na GPU então se ela tiver livre vai conseguir duplicar o FPS tranquilo frame gen acaba que resolve gargalo de cpu
No Microsoft Flight Simulator, de repente seria bom, não é um game de muito movimentos, nem muito rápido. Queria aumentar os FPS do meu game, ajuda muito nos pousos. No Brasil eu consigo muitas vezes 50 FPS, mas em alguns cenários pode cair pra uns 30 fps. Nos EUA parece que agarra um pouco mais, fui fazer um voo KMCO(Orlando) p/ KORD(Chicago O'Hare) com o A320 da fnx e tava agarrando num nível de incomodar bastante, mas consegui fazer um pouso com menos de 150 de razão, mas foi mais trabalhoso do que o normal, voando no Brasil. Domingo agora vou testar denovo voar nos EUA, fazendo o voo de Chicago pra Denver. Eu tenho uma 6700xt com o Ryzen 7 5700g. Tive que comprar esse processador pra poder usar o Pc até comprar a placa de vídeo, senão pegava o 5700x, mas não sei se faria uma diferença absurda.
Acho incrível ver essas opiniões sobre Forspoken só que quando joguei com um RX 5700 o jogo simplesmente estava lindo e joguei por horas e horas sem qualquer bug.
@@m.a.a94o Diego n fez nada, o jogo é uma merda, bugado e a historia é totalmente piegas, o estúdio q fez ele foi fechado pela square enix pelo vexame inclusive.
não vou mentir, eu gostaria que não tivesse musica de fundo nesse video. gostaria de ouvir somente o que o Diego está falando sobre o FSR3. dito isso curti muito o video. muito bem explicado o assunto que foi abordado como sempre. e de quebra foi divertido ver o Diego reclamando do Forspoken. haha.
A primeira vez que me lembro da AMD sendo muito mais Pró-consumidor foi com o TressFX no Tomb Raider, era uma pequena resposta ao Hairworks, só que de código aberto, o resultado foi o pureHair que foi utilizado até mesmo no Shadow TR, e mais importante foi a Mantle, se você usa Vulkan hoje, agradeça a AMD também, a Vulkan é uma "filha" da Mantle. Pena que o Market share ainda é muito pro lado da Nvidia e eu entendo o motivo disso, as Radeon ainda são menos polidas que as Geforce, falta aquele 10% a mais, tomara que a AMD consiga igualar, ela conseguiu frente a Intel então não é impossível.
concordo em partes, a AMD é pro quando interessa, pq ela lançou a RX7800 com mesma performance que a RX6800? e ainda colocou para competir com a RTX4070! deu uma capada no lineup da serie 7000 igual a nvidia esta fazendo com a serie 4000. poderia ter feito uma placa melhor e muito mais competitiva mas nao quis.
dlss 3: ter placas nvidia(especificamente series 40), empresas tem que ter adicionado o suporte. fmf: ter placas amd(opcional), empresas tem que ter adicionado o suporte(opcional).
kkkk eu acredito fortemente que a Nvidia vá se mecher pra ao menos trazer um Frame Generator capado mas ao menos funcional pras antigas GPUs... ela não vai querer perder em feature pra AMD nem a pau.
Não fizeram isso com DLSS, com certeza não devem fazer com FG tambem, publico da Nvidia é forte, e quer anotar algo de verdade? se prepara pra ver a chuva de hate em cima do FG da AMD, falando que é infinitamente pior que o FG da Nvidia, que está inutilizavel e bla bla bla e só pra não perder a piada, falar que os drivers da AMD não prestam ausdhausdhuasdh
@@sox6274engraçado é que todo mundo que vejo falando mal de drivers da AMD nem tem placa de vídeo da AMD kkkk, o FSR no começo era bem pior que o dlss mesmo, mas quem falar isso do fsr3 hj tá maluco, o FG do fsr3 tá consideravelmente melhor que o da nvidia
Cara, é estranho assitir videos do Adrenaline sobre coisas da AMD... parece que têm uma dificuldade grande reconhecer os quando a empresa acerta. A começar pelo título: o FSR3 não é concorrente do DLSS3, até porque a comparação é desleal. O FSR3 é MUITO melhor pelo simples fato de abranger mais placas.
Quanto mais acessivel para todos poderem jogar seus jogos melhor, torço muito por essas tecnologias.
Vai funcionar no steam deck?
lúcido
@@talison461provavelmente
É verdade, o problema é que em breve isso irá acabar, as empresas estão usando essas tecnologias como apoio, e foi oque falaram no vídeo, em breve a tecnologia que era para permitir você jogar em 60 com placa de vídeo antiga ou modelos de entrada vai passar a ser para você jogar em 60 em qualquer placa de vídeo que você comprar kkkkkkkk
vai ser muito util e necessário essas tecnologias mais maduras, mas hoje em dia e acredito que ainda nos proximos anos, eu vejo muito daquela historia que muito se falava de early adopter se dar mal kkk
É o tipo de coisa legal de acompanhar evoluindo, até ligar nos jogos as vezes pra ver como tá. Mas usar de fato ainda ta longe, tomara q evolua mais rápido do q eu espero
Sobre problemas de fluidez, imperfeições nas texturas, quadros estranhos e etc, pra fazer um teste mais preciso, vocês do Adrenaline precisam considerar ler os detalhes da documentação da AMD e fazer esses testes seguindo as orientações que estão lá. Eu vou deixar o link pro pessoal ler aqui no final, mas vou adiantar pra quem estiver tendo problemas, o algoritmo de FG da AMD é bem diferente do DLSS, e a AMD informa que para ter fluidez você PRECISA habilitar o vsync e é recomendado que a sua taxa de quadros no jogo esteja atingindo a taxa de atualização do seu monitor. Além disso, deve-se desativar o freesync/g-sync do seu monitor. Por exemplo, suponha que você tenha um monitor de 240hz, e habilitando o FG no jogo você consiga um máximo de 150 FPS. Não vai ter uma boa experiência, porque ele considera a taxa do seu monitor como base pra geração de quadros, e você não tem performance suficiente. Então o ideal a se fazer nesse caso é reduzir a taxa de atualização do seu monitor, por exemplo para 120hz, e ativar o vsync do jogo. Isso resolve todos os problemas de fluidez, geração de quadros, frametime, etc. Eu por exemplo reduzi a taxa do meu monitor de 144hz para 75hz e tudo ficou muito mais fluído e coerente na tela. Sobre o frametime e pacing, detalhes estão na documentação, explicação de porque algumas informações estranhas aparecem no afterburner:
community.amd.com/t5/gaming/amd-fsr-3-now-available/ba-p/634265
gpuopen.com/fsr3-in-games-technical-details/
Cara eu tenho um Odyssey G7, toda vez que diminuo o refresh rate e desligo o g-sync do monitor parece que fica meio estranho a imagem, fica com stuttering. Parece que fica menos fluido.
E no meu caso eu tenho um problema que meu botão do monitor não funciona direito, e toda vez tenho que deixar o monitor esfriar para entrar no menu, aparentemente pelo Reddit um problema comum nos Odyssey G7. Então ficar trocando de refresh rate toda hora é foda. Resumindo: fiquei bem puto que eles cagaram para uma tecnologia que é super importante e cada vez mais usada que é o VRR
verdade, parceiro
@@Vecchete você pode definir uma taxa de atualização menor diretamente nas configurações avançadas do monitor no Windows, ou no painel de controle da placa de vídeo, ao invés de fazer isso pelo menu do monitor. Também funciona. Talvez essa sensação que vc tenha de que as coisas ficaram meio estranhas seja porque você já se acostumou com um monitor com uma taxa maior. Eu tenho dois monitores, um 240hz e um 60hz. Qualquer coisa q eu faça no monitor de 60, eu acho estranho, até o movimento do mouse na tela é estranho, mas isso é por conta da taxa de 60hz q pra minha percepção já incomoda, é o costume. Através do Windows consigo definir varais taxas de atualizado para o meu monitor, ele da suporte, então 120hz ainda fica ok. Abaixo disso realmente começa a ficar esquisito. Talvez seu caso seja outro, mas pode ser isso
Ótima explicação amigo..
@@LuhShotE tem outro problema que me parece cada vez mais frequente, e que pouca gente se dá conta. Hoje em dia os monitores tem refresh rate muito variados, e as pessoas se apegaram muito ao numero 60 Hz que, em muitos casos, não é a frequência nativa do display. Sem freesync, as vezes vale mais usar uma taxa que seja fração inteira dos Hz do display, do que reduzir no Windows, e aí é questão de fazer as contas.
Um exemplo que rolou com um amigo recentemente, que reclamava que 60 fps ficava "engasgando", acontecia por o display dele era 165 Hz, e ai 60 Hz não encaixa. Sugeri *reduzir* pra 55 Hz (165/3), e magicamente o jogo ficou bem mais fluido. O olho humano é muito sensível a variações, e um frametime consistente é mais confortavel que uma taxa alta, mas irregular. Quem tem display 144 Hz pode usar 48 ou 72, etc.
A AMD mostrou mais uma vez que as tecnologias da NVidia são travadas de propósito para os novos hardwares. Dá sim pra ser algo feito por software. Quero ver essa tecnologia nos consoles, vai dar um boost bem bacana em alguns games por lá também.
cara, nao sei se eu to falando merda, mas FSR usa tensor core, que tem em toda placa, e as tecnologias da NVIDIA usam CUDA Core alem de tensor. Mas sim, de qualquer forma, AMD salvando geral, ate pq mto game nao tem DLSS e qm acaba salvando eh o FSR, tipo no Dota
@@Mike-Zz cara, os Tensor Cores são exclusivos das RTX e são usados para aprendizado de máquina, o que o FSR realmente usa são os shaders, que nas AMD são chamados de compute units, e nas Nvidia são chamados de cuda cores. Nas RTX existem os cuda cores, e também os RT cores que são voltados pra ray tracing, e os tensor cores que são voltados pra IA, enquanto nas outras placas existem apenas os shaders que podem ser compute units nas AMD ou cuda cores nas Nvidia (GTX).
Existe ainda um outro detalhe nos shaders, até as Nvidia pascal (série 1000) e AMD polaris (rx 580, rx 590, etc) as GPUs faziam apenas uma instrução por vez, mas com a chegada as arquiteturas mais modernas as GPUs ganharam suporte a computação assíncrona e são capazes de realizar múltiplas instruções em paralelo ao mesmo tempo, a AMD pede essas GPUs modernas pra usar o FSR 3 devido a versatilidade maior, no caso todas as RX a partir da 5500XT e todas as GTX a partir da 1650 tem isso, além das RTX
@@danielbukowiski boa, entao falei merda meesmo keh
@@danielbukowiski dá uma pesquisada jovem, vc mesmo se refutou. O machine learning é feito pelos tensor cores !
Tem chance dessas tecnologias vir para os consoles? Se vinhece ia ser perfeito
o FSR 3 parece promissor, mal posso esperar pra ver a tecnologia sendo implementada em algum jogo
kkkkkkkkkkkkkkkkkkkkkk
Só li verdades
Kkkkkkkkkkkk
ainda no aguardo kkkkkkk
só verdades ditas
Maior erro da AMD é permitir Forspoken ser o primeiro jogo com FSR3
Por tá cagado, se mostrar resultado quer dizer que é muito bom e útil kk
o jogo não é ruim....
mas também não é bom 😅😅
a bufunfa deve ter sido grauda
mas só serve pra mostrar mesmo, pq o jogo é uma merda @@ServuloAraujo
kkkkkkkkkkkkkkkkkk aí é foda
Só da AMD não amarrar tecnologias a suas placas já temos um grande avanço.. tanto de tecnologia quanto na maneira como o consumidor é tratado
AMD é democracia... e a Nvidia/Intel são ditaduras 💀
exatamente. assim vc pode fazer a coisa certa: comprar placa nvidia e usar o fsr3 kkkkkk
É o único ponto que é melhor que a nvidea.. Mas nem se compara com o dlss3 da linha rtx 4000
@@gabrielbarros9969sim sim, idiota. Rodar o fsr 3 na nvidia é a mesma coisa que rodar na série 7000 e 6000 da amd kkkk.
sim pq se amarrar so vai beneficiar 5% do mercado kkkkkkkkkkk
Eu tentei na minha 3070 e saiu de 67 quadros para 120 em quadhd ultra. Só você travar em 80 ou 100 fica filé. Parabéns amd.
Lembra de ligar o V-Sync! Achei top tbm. 3070 em 3440x1440. Tudo no talo menos textura né (8gb vram) pegava uns 30. Dai FSR3 Qualit pra uns 50. E com o FG foi pra uns 70-80.
Imagina isso no dlss3 rodando na linha rtx 4000.. É muito superior.. Ainda tem maluco que fala q prefere 3070 em vez da 4060 ti
@@higorchavess so falam de boca pra fora, e obvio que a 4060ti e mais jogo, e se colocassem pra esses pessoas escolherem(no privado) qual pracas queriam ganhar eles escolheriam a 4060ti
@@wbkatsuu4859 Então, consumindo o dobro de energia! Essa é a vantagem da 4060.
@@pmacintosh eu trocaria essa economia por mais potencia se pudesse kkkk
Amd era zoada por ter drivers cagado, hoje ela consegue fazer via software o que a concorrente precisa de hardware pra fazer. Viva a evolução tecnologica
Na verdade a Nvidia da um baita migué, isso tudo é via software, lembra do lhr das nvidia “via hardware”?
Kkkkkk
@@malcongr.5674É tanto que os gringos fizeram o dlss funcionar numa gtx 1650
@@malcongr.5674é um software, porém que para ser viável em termos de performance precisa de alguns atalhos em hardware. Voce poderia usar o algoritmo de IA do DLSS FG em CPU inclusive, o problema é o tempo que isso levaria para ser computado. O fator de eles criarem um hardware específico é para diminuir latência e uso de GPU. O DLSS escolhe usar os Tensor Cores e os Optical Flow Accelerators, apenas por um motivo de velocidade e separation of concerns.
O FG da AMD na sua média, para o público médio, entrega um bom produto. Porém tem alguns problemas que não são encontrado na Nvidia por causa da arquitetura. No FG da Nvidia a latência consegue ser menor que o os da AMD mesmo usando os mecanismos para diminuir latência, além disso o FG da Nvidia permite o uso da tecnologia com VRR por causa de como é sua implementação, de forma "paralela".
Isso é super comum para processamento de IA em sistemas embarcados, na minha área de especialização. Nós usamos Chips especializados em IA, e às vezes vários chips, cada um com uma especialidade para poder através do software acelerar o processamento. Isso é super comum em carros autônomos, por exemplo.
Aí você pergunta: não seria possível várias versões de DLSS para rodar em diversos hardwares? Seria possível, mas você aumenta os problemas de compatibilidade e aumenta consideravelmente o custo de manutenção, e fica difícil de fazer o marketing. Esse é mesmo motivo da Apple ser toda fechada.
@@wadson990sim, roda na 1650, mas com uma perda de performance absurda por não ter os tensor cores, o que era para ganhar performance...você perde, tá certo. Mas o que importa é falar que roda né...
@@Vecchete se abriu roda 😁🤐 (contem ironia)
Acredito que se tivesse usado o overlay do software da AMD pra mostrar os fps dos games que não tem suporte nativo ao fsr3 o FPS teria aumentado. Acho que o riva não mostra o resultado pq esse FPS não existe no game e sim no software. Isso também explicaria o porquê do FPS abaixar, já que o frame generator está ativo deve consumir um pouco da vga.
É exatamente isso, espero q eles atualizem essa informação no próximo vídeo.
Exatamente.
Joguei Forspoken no quality com uma 3080. peguei 150+fps e nao senti mudança na latencia e a qualidade... pqp esta incrivel. Cade a galera com a rx580 dragaozinho chines torando nos testes??!?!?
Está até mais bonito, e segundo a Pichau a latência é menor que nativamente.
@ pra sentir a latencia menor tem que ficar acima dos 90 fps no FMF
Também acima de 150 fos como que sente latência kkkk😅
Aqui também gostei muito! to conseguindo 240fps travado no 1440p Balanced+FrameGen e 120fps travado no 4k Quality+FrameGen. E tá super fluido o jogo. Parabéns AMD!!!
@não é menor, aquele gordinho não manja nada. Ficou menor porque ele ativou o super sampling, aí aumenta a quantidade de FPS nativo e consequentemente diminui a latência. Ou seja, não foi por conta do FMF.
Anti-Lag+ corrigiu o 1% low e o frametime fica mais liso, seria bom testar no proximo video.
Isso que eu ia comentar, não vim ninguém ligado o anti-lag, pq dá a entender que as tecnologias em conjunto é o que faz a magia acontecer.
como q liga isso ai
@@MasterWy No Adrenalin software, mas só nas Radeon 7000
@@guilhermeodai ah, tristeza, tô usando na 3070 ti de note, mas pelo menos travando os FPS pelo rivatunner o frametime fica lisinho também
@@MasterWy A Nvidia tb tem antilag. Se chama Nvidia Reflex.
Qnd a AMD melhorar mais ainda essa tecnologia, vai ser massa
a parte melhor é q não vamos ficar dependendo dela, ja q ela vai abrir o codigo do FSR3
Se não for colocado nos jogos não vai ser.
Aqui a experiência foi muito melhor que a apresentada no vídeo kkkkkkkkkkkkkkkkkkk
De 4k nativo rodando a 35fps, só ativando o frame generation foi para uns 65~70fps mantendo os 4k nativo com a mesma qualidade, e ficou bem melhor de fato para se jogar, não senti nenhum ponto negativo na gameplay ou qualidade do game, só senti ganho.
E apesar do game ser fraquinho, é um bom game para testar essa tecnologia já que é uma gameplay bem rápida.
Não tive nenhum problema gráfico no game, nem por conta de bug do game ou por conta do FSR3, aqui funcionou tão bem que consegui jogar bastante o demo do game, porque fiquei maravilhado com o que a AMD conseguiu alcançar, estão de parabéns.
Agora ativando o FSR3 no modo qualidade, ai já sobe para uns 90~100fps e fica bem mais fluido.
De 35 ou 40fps já fica bem legal ativando o FSR3, mas se o game já tiver a uns 55fps, ai fica divido.
Agora quero isso para ontem no Cyberpunk, não acreditava que isso iria funcionar, mas AMD deu um tapa na minha cara e mostrou com maestria que é possível de fato.
Tomara que isso chegue logo para o Red dead 2, jogar aquele game em 4k é meu sonho
Sagen bitte, welche Grafikkarte haben Sie? Amd oder nvidia?
@@iam7610 AMD RX 6800 XT
Devemos sempre valorizar essa concorrência entre empresas isso incentiva o crescimento e qualidade do serviço .... Não existe crescimento dentro da zona de conforto !!!
A RX6600 foi de 32fps em QHD no máximo pra 84fps com FSR3 qualidade + Gerador. Nao senti inputlag.
Qual jogo? Tbm tenho essa placa.
@@pedrobraga103 Forspoken, que é o único que tem FSR3.
Tenho essa placa também, perde muita qualidade de imagem?
em fullhd em qualquer jogo perde qualidade bem visivelmente tanto o dlss e principalmete o fsr,essas tecnologias so fazem sentido em 2.5k e 4k@@laformosa9128
@@laformosa9128 perde pouca coisa, não achei a qualidade da imagem ruim não.
Eu consegui rodar acima de 110fps na RX 5700 com o FSR3, sem ele rodava a 54 a 60fps.
Ja ta ativo?
@@LUCASDK12 sim.
já até gravei no meu canal@@LUCASDK12
aq funcionou na minha RX5600XT, vi que no comunicado da AMD eles deram suporte agora com a seria RX5000 toda, mas ta com inputlag bem zuado, só resolveu travando a 60fps, mas no alto com fsr 3 no modo qualidade (1080P) com o gerador, o fps saiu de 40 para 80fps (testei só o inicio da demo)
Mas é a qualidade de imagem? Caiu muito?
esse fsr 3 ta muito bom, o Forspoken rodava a 45 fps no ultra com o fsr ativado foi pra 120-135 e vc nem sente mudança no grafico e nem no imput lag
Pra mim ficou uma merda mano. O gerador de quadros do FSR 3 trava o VRR, meu jogo na minha tela ficou pior a experiência que sem o gerador de frames. E nem deve mudar isso pois faz parte do algoritmo se basear em um refresh rate travado.
@@Vecchete provavelmente é porque quando vc tem VRR (Variable Refresh Rate) no seu monitor/TV já é muito mais tranquilo jogar com taxas menores que 60FPS, acredito que esse recurso faça mais diferença pra quem tem monitor travado em 60Hz, onde o "judder effect" incomoda mais. Então provavelmente vc tá sentindo mais falta do VRR do que da fluidez trazida pelo frame generator. Não sei se isso pode mudar em updates futuros, alias, não sei se tem essa limitação no FG do DLSS tb.
@@ViNiMiCoRRizA pelo que eu vi é limitação do FG do FSR que se baseia do refresh rate da tela pelos cálculos. Sim, não tem benefício nenhum para mim. No meu caso, meu monitor nem funciona legal abaixo de 90 fps, porque o VRR range dele é 90-240Hz
Pô, maneiro. E ainda teve um detalhe, que só prestei atenção no Immortals é que de 21% de uso de CPU rodando a 43fps sem gerador de quadros, caiu pra 11% rodando a 74fps com o gerador de quadros, já que o consumos de performance efetivo de CPU deve ser próximo ao de 37fps (74 / 2) 29:00.
Opa mano, de boa? Você acha que um Ryzen 5 5600 tanka uma RX 7600 de boa?
@@rafaelduartemz tanka ate rx 7800, imagine uma 600, uma rx7600 um ryzen 5 1600 tanka, pode ir sem medo, baita processador
@@alexivannm Ahh entendi, valeu mano
Eu achei sensacional, ainda mais se você não ficar olhando frame-by-frame!
Com um Xeon e uma RTX 2060 Super, dava pra jogar Forspoken no Alto oscilando entre 40-60 fps com VSync em FullHD.
Usando DLSS, segura bem melhor a 60 em vários locais, mas não dá tanta diferença - talvez um gargalo de CPU aqui.
Usando o FSR3 sem o FMF, em trechos que fica entre 40-50 já fica em 60.
Usando o FSR3 Qualidade com o FMF ativado já fica travado em 60 fps, mesmo no gráfico em Máximo.
Sem o VSync já chega em 90 com o gráfico no Máximo.
E o frametime fica bom e não dá pra perceber problemas gráficos sérios e nem input lag.
Certamente uma boa solução para quem tem aquele Bottleneck de CPU.
AMD está de parabéns!
Só falta vir para Starfield pra mostrar mesmo a que veio!
AMD fez uma bruxaria, demorou mais veio muito bom, fora que o ganhou de fps é insano, vi a 7600 ganhando 200%.
TÁ POORRAAA
Caralho tudo isso
@@LeoSoares-yx6ww sim, vê o vídeo da pichau
@ sim acabei de ver lá na pichau e no Guiga games
De 125 fps fui pra 230 !
seria a AMD trazendo uma gpu que é "acessível" ao consumidor, com uma tecnologia que faça ele rodar o jogo da forma que ele quiser?
7700xt indo pra 4k a 60 fps+, os cara tão de parabéns dms po
Daqui a pouco os fanboys da Nvidia vão te xingar
@@PedroAraujo-vg7mlkkkkkkkkkkkkkk
Minha 6750 xt já roda tudo a 4k 60, é o mínimo que essa 7700xt deveria fazer...
essa placa de video roda em qhd, n fode aloprando q ela empurra 4k com folga@@victormorsil
@@victormorsil você tem que ver essa tecnologia pro futuro quando essas placa serão absoletas no poder bruto, quando o jogo estiver a 20 fps você vai rodar a 60
gerador de frame por driver funciona sim. ja vi gente usando no starfield e é melhor do que eu esperava.
Cara eu amo a AMD, vai dar uma sobre vida ao meu hardware de 2021 😂
Evolui cara
@@belledelphinebalakubaku851dinheiro cara
Ficou bom pra caralho, nem percebo se eu ligo, no começo o frame time era um problema, mas era so ativa o riva tune+vsync via driver que resolveui
Minhas impressões com Forspoken (demo) em 1440p:
A qualidade do FSR3 em si parece muito boa. Em quality ou mesmo em balanced, a qualidade da imagem fica muito boa. Só tem 2 bugs bem perceptíveis que é nas bordas das nuvens e em umas magias azuis que ficam no chão (cria uns artefatos poligonais enormes beem estranhos).
Sobre o FG: só consegui a fluidez de fato desativando freesync, enhanced sync e ativando o vsync no jogo. Ai sim, ao ativa-lo parecia mais fluido. E sinceramente, se eu não fico forçando em mexer a câmera muito rápido, não da pra perceber na jogatina normal (com FSR3 em Quality, dando mais de 60 quadros nativos). A tecnologia está bem funcional!
14:49 | *STAAAaaarFieeeld!* você pracisa trazer, *URGENTEMENTE* esse update!!!
Vamos ver nos consoles como vai ser🙏 animado estou
Pra quem tá em duvida também funciona nas RX 5000 abaixo da 5700.
ataaaa valeu pela informação
Que bom que tem suporta a RX 5700 comprei uma só por isso
@@CuriosoLtd peguei a 5500 xt ainda bem q vai chegar nelas tbm, de começo achei q so chegaria o frame generator nas rx 7000, quando soube q as 5000 tbm chegaria ja deu ate um alivio kkk
Rx580 não né? Tô lascado
@@zZLucasLimaZz que bom man nossas placas vão dar um tempo de vida util absurdo
Testei na RX 6650XT com o jogo no máximo - RT OFF - 1080p FSR3 QUALITY e Frame Gen on e tô rodando na casa dos 110-140 frames, não senti latência ruim e tô jogando com vsync off e freesync do monitor ativado.
Chegou a testar com ray tracing ligado?
Sempre preferi usar gpu NVidia com processador AMD.
Pois tive uma HD4870 e RX 5700 que só me deram dor de cabeça
Em 2020 eu estava com um Ryzen 2600x + 2070Super (que peguei após ter dor de cabeça com a RX5700)+ 2x8gb 3400MHz
Rodava muito bem os jogos
Hoje estou com um Ryzen 5700x + RX 6750xt + 2x 8gb 3200MHz. E estou impressionado no quão estável e "liso" são os fps.
Não estou comparando a quantidade de fps.
Mas sim a estabilidade.
Sempre configurei os games para usar em média 70% da GPU, para ter alguma sobra, e caso necessite de mais processamento, não haver quedas.
Então nessa mesma situação, a RX6750xt sempre parece estar rodando mais "liso" comparada as duas últimas placas que tive, que foram a RTX 2070 Super e a GTX 1660 Ti.
Meu preconceito com gpu AMD acabou.
Ah e o FSR ligado em qualidade, tem imagem melhor que o DLSS em qualidade.
Falar que o FSR ligado tem imagem melhor que o DLSS é ser fanboy msm
Me pergunto se o nosso carequinha do adrena, algum dia foi professor.
Explica as coisas com tanta leveza que os vídeos de meia hora passam voando.
Excelente vídeo, como sempre.
formado em Jornalismo, tem que ter habilidade pra repassar conteúdo pras pessoas
Fazendo jus a formação dele
os quadros da AMD tão melhores que os da NVIDIA com aquele ghost...AMD lavou a alma das GPUs hoje !
se você tivesse noção da bosta que falou pararia de usar smartphones pra bostejar burrice e desinformação na Internet...
Pior que é vdd mano... no vídeo o cabra calvo falou dos artefatos serem parecidos com os da Nvidia mas pra falar a vdd, aquele ghosting maldito do DLSS é MUITO pior
nah. eu uso dlss3 no starfield e é muito filé, vc nao consegue dizer q ta com frame gen, só que está manteiga o tempo inteiro 120fps na minha rtx 4080
mas imagino que o fsr3 também vai ficar top
Dlss3 tá praticamente perfeito.. O dlss2 que tinha muito problema
@@higorchavess mas o ghosting voltou com o frame generator tem um video aqui do Adrena mostrando.
Pessoal a amd indica ativar o frame generator de 60fps acima pra ñ zoar o frametime, ou seja, a fluidez pode ficar prejudicada caso sua placa ñ rode 60 nativo, ativa o msi after burner que vcs verão isso.
Sim, e habilitar o vsync independente do monitor melhora mttt tbm
AMD rainha demais, presenteia até a galera das RTX
Eu ainda acho que AMD e NVidia, por trás das tretas públicas, são tipo colegas de trabalho rsrs. A forma como elas se complementam parece orquestrada, porque se por um lado a NVidia investe mais em pesquisa pra trazer novas tecnologias, e cobra mais por isso, a AMD vem logo em seguida refinando e popularizando os recursos.
testei o jogo em uma rx 6600 e travei em 70 fps pelo msi, em 60 eu achei que nao tava fazendo diferença... simplesmente perfeito, preset do alto com qhd com folga na gpu e uma maravilha
onde baixa a atualizaçao?
como vc habilitou essa função na rx6600?
@@fpks7727 achei que fosse aparecer pra atualizar , mais abri o forspoken e já tem o fsr3
Excelente vídeo! No aguardo do vídeo da muleta do super sampling
O melhor é que não tem essa palhaçada de limitar a X geração. É a primeira vez desde que eu comprei a minha 3060Ti que o FSR parece interessante como uma substituição ao DLSS
É melhor ainda se você juntar dinheiro para comprar uma placa melhor e não usar nenhuma dessas muletas kkkkkk DLSS e FSR são duas muletas, o DLSS tem uma pequena vantagem gráfica, mas é ruim igual
@@Veccheteconcordo com você que são muletas, mas até RTX 4090 precisa usar DLSS / FSR pra rodar em 4k com ray tracing, sem contar a má otimização natural dos games recentes que torna essas muletas mais necessárias ainda.
@@m.a.a94 de fato, para 4k com Ray tracing até a 4090 precisa dessas bosta. Eu sou chato mesmo, acho muito ruim hahahah
Obrigado por seu sacrificio Diego, deve ter sido um terror jogar forspoken
Pemba
Em resumo: O gerador de quadros veio pra ficar, mas ainda está faltando mais alguns anos de maturação. Eu vejo que será uma realidade pq assim como o próprio Diego disse, com uma tecnologia dessa as placas ficaram mais baratas de serem produzidas, consumiram menos energia, logo não vai precisar de uma fonte de 1000W pra alimentar e nem de um suporte pra segurar os trabuco de 50kg e aí as tecnologias de força bruta ficaram para as placas entusiastas, as de final 90 ou 9000 da AMD.
Concordo, e vou até um pouco além. Tenho uma opinião um pouco polêmica, mas acredito que a adoção do raytracing é indispensável pro avanço acontecer. Vejo grande parte dos problemas que a gente tem hoje, como alto consumo, jogos quebrados, etc, acontecendo por conta do pipeline baseado em shaders estar próximo do limite de escalabilidade. Uma mudança de arquitetura precisa acontecer, mas como todo período de transição tecnológica, nada se faz do dia pra noite.
E o pior é que não é a primeira vez que vejo isso. Há uns 20 anos aconteciam exatamente as mesmas discussões na transição das GPUs de pipeline fixo pra shaders programáveis. Muita gente nem lembra disso (ou nem era nascido mesmo xD), mas eu chorava com colegas falando coisas como "dá pra fazer reflexo e bump-map em pipeline fixo, não precisa de shader pra isso" e "shader é muito mais pesado e o resultado nem fica tão melhor assim". Exatamente os mesmos argumentos que hoje usam pra criticar raytracing xD
Tu falou tudo, e era exatamente isso q eu pesava até eu ler o seu comentário, eu era do time q dizia "Ah, o RT nem faz tanta diferença nos gráficos assim e é só pesado, então é só se desapegar essa tecnologia".@@SauloMansur
A vdd é que a AMD é uma das melhores empresas de tecnologias, ela tem o freesync e FSR livre que pode ser usado por até placas da NVidia, tem seus processadores com vídeo integrado que quebra um bom galho, e ainda tem suas placas de vídeos mais acessíveis.
Pontos que não foram citados no vídeo e que valem a pena saber:
Atualmente o FG parece não se dar bom com VRR(Freesync/Gsync) ou seja se você estiver usando um monitor 120hz+ com VRR ativado, você só ira conseguir ver a fluidez do AFMF se seu fps estiver próximo dos hz máximos do seu monitor;
Você precisa do Vsync ligado para que o FG funcione direito;
Mesmo abaixo do fps recomendado o ganho é absurdamente alto, então diferente do recomendado, testei o game a 30fps nativo subindo pra 60+ e a fluidez ocorreu, PORÉM ela simplesmente não existe se você deixar VRR ligado e VSYNC desligado. Só vai aparecer FPS mais alto no MSI afterburner mesmo;
No caso do AFMF via driver o MSI Afterburner não consegue captar os fps gerados por isso que parece estar "perdendo" performance;
EM RESUMO Se você realmente quiser aproveitar a tecnologia em toda sua glória, DESATIVE FREESYNC/GSYNC no monitor e no sistema (se tiver) e ative o VSYNC
Meu monitor é de 240Hz, e achei uma merda esse frame generation, pois o FPS final ainda está bem abaixo dos 240 hz então tem um stuttering absurdo. Ligando v-sync e desabilitando o g-sync não resolve isso. Para mim ficou inútil essa tecnologia sinceramente.
@@Vecchete putz então é mais um ponto a se considerar. Você desabilitou o gsync no monitor e no painel? Também é bom deixar o game em fullscreen exclusivo. A título de teste, tenta colocar os hetz a 144 (que é meu caso) e vê
@@Vecchete pelo oq explicaram em alguns comentarios, se seu monitor é de 240Hz, o jogo OBRIGATORIAMENTE tem de rodar a 240FPS se a sua placa nao consegue, o FSR 3 não vai te ajudar ... no FSR3 tem de ser FPS = Hz pelo oq eu entendi
@@multiverso Na verdade não necessariamente, meu monitor é 144hz e testando o Forspoken a 2k em uma 3070, nativamente ele entrega +/- 40fps e desabilitando o VRR no monitor e ligando o VSYNC o game entrega os 60fps+ coma a fluidez do frame nativo mesmo. Acho que a questão maior está no fato de não ser compatível com VRR e ser obrigatório o vsync
@@wellingtonfleury9787 eu mudei para 144 e ficou bom. O problema é ter que mudar manualmente toda vez. Considerando que o botão do monitor é uma merda, não é nada prático, e nem trocando ele fica melhor vai ser um parto trocar toda hora (quem tiver dúvida tem bastante discussão sobre isso nos Reddit da vida sobre o knob button do Odyssey G7). Paguei 700 euros por um monitor que o botão não funciona kkkkkkk. Enfim, essa é uma boa solução se eu for sentar e jogar por muito tempo. eu seto a taxa de atualização até terminar de jogar. No entanto sempre que eu puder usar o frame generation da própria Nvidia eu vou optar.
Saudades meu calvinho
TE AMO
espero que fsr3 consiga dar um up na minha 1660, vo demorar a trocar pq acabei de parcelar um kit de processador e placa mae
Tomara, eles deixaram uma nota dizendo que apesar de oferecem suporte a partir das RTX 20, pode funcionar em GPUs mais fracas. Minha 1650 agradece qualquer respiro
Pelos testes que vi, a opção de ligar o FG nem sequer aparece em placas não suportadas (incluindo as 1660). Só lhe resta usar o FSR 3 upscaling enquanto der.
Vai ajudar sim, se teu jogo rodar a 30 FPS, a Pichau fez teste de analise também e percebeu que ativando a geração de quadros a latência foi reduzida!!! Ficou melhor do que jogar nativamente e muito melhor do que usar o DLSS 3 que cria mais latência. O FSR 3 ta dando de lavada na Nvidea. Conseguindo 200 porcento de ganho em placas RX 7000 e conseguindo 100 porcento de ganho em placas da Nvidea.
Errado. Aquele gordinho não manja nada. Se o jogo tiver a 30 fps e ativar o gerador de quadros, vai ter um delay enorme, tão grande quanto jogar na nuvem.
Caray se a amd fazer frente a nvidia, um kit full amd vai dar bom demais
Estou muito feliz que esta funcionando, e com o tempo tende a melhorar.
Se a careca brilha, eu dou like!
A qualidade de vídeo do canal tá excelente
Sempre fui consumidor da nvidia desde 2007 com minha finada 8800GTS até 2016 com a 1060, a partir dai fui pra AMD e digo deem mais valor a AMD, hoje uma RX 7900XTX bate uma 4080, se não fosse a amd o que seria de placas como a serie 20 e 30 da propia NViDIA? acho palhaçada a NVIDIA cagar pros seus consumidores e vir a concorrente e abraça-los. alias, deveriam ficar revoltados pois quem apanha e continua amando e só mulher de traficante! fora que as placas AMD envelhecem bem demais uma RX 580 dá um caldo até hoje e uma RX 5700 que perdia pra uma 2060 hoje bate em uma 3060 com o avanço dos seus drivers, AMD é um exemplo hoje no setor de processador e placa de video.
Diego, no caso do AFMF ativado pelo driver, vc tem que usar o próprio driver da AMD pra poder capturar o framerate. Se vc usar outro programa, como o MSI afterburner, ele não vai capturar os frames gerados pelo driver, então vai parecer que não tá funcionando.
No geral AMD sempre teve o melhor custo x beneficio, além de não "abandonar" os consumidores menos afortunados. E se depender da Nvidia isso nunca mudará... kkkk
O driver feito em homanagem a vocês 👏👏👏
No teste do AFMF o Red Devil Redemption ( 21:18 ) estava rodando em 4k 60 FPS com o AFMF off, essa taxa de quadros não é suficiente pra ativar a tecnologia segundo o próprio vídeo relata no início ( 55 FPS pra Full HD, 70 FPS pra QHD, o que me faz deduzir que pra 4 k necessitaria mais que 70 FPS pra poder utilizar essa tecnologia ). O mesmo erro deve ter ocorrido com o StarField.
cara, é bug msm, tem video de gente ativando o afmf em starfield inclusive, com o game a 50fps e dobrando pra 100fps, foi bug msm, mas tudo bem pq ta no beta né, e ta rodando mt bem inclusive, msm em 50fps, vou pegar o link e mando aqui
edit: peguei aqui mano, se liga:
th-cam.com/video/XstgDL8zbWc/w-d-xo.htmlsi=1buUmF8IuQBrz42J
Mesmo sem os fps recomendados a taxa de quadros aumenta muito, isso deve ter sido outro bug
@@joaoflpe Ambas reproduções eram em 4k?
@@biluca799 Se você está dizendo deve estar correto... Eu apenas transcrevi o que o próprio vídeo exibiu.
Testes muito bons como sempre, mas falar que não serve quando as taxas de quadro estão baixas logo depois de ter feito o teste no Forspoken de 26 fps pra mais de 70 com fsr e frame generation é incoerente né.
O frame generation da Nvidia também foi bastante utilizado pela própria para conseguir chegar nos 60 quadros usando o Raytracing Overdrive no Cyberpunk em apresentações da marca.
Po, a atualização do Immortals saiu 2 horas da tarde rs. Tá bem melhor pra testar, porque tem Reflex pra Nvidia e Anti lag + pra AMD (Forspoken só tem antilag normal). Além de que parece melhor implementado o recurso lá
pelo oq eu entendi, o fsr 3 que gera quadros pelo driver faz isso independentemente do jogo, e o msi afterburner não consegue capturar esses frames gerados, então ele só conta o fps do jogo "cru", pra ver o fps com o gerador de quadros tem q usar a ferramenta da amd msm q aí sim vai aparecer. vi um cara explicando isso num vídeo sobre o gerador de quadros por driver no cyberpunk do canal terra nigma
o futuro é FSR e nuvem, daqui a pouco poderemos ver máquinas low end rodando jogos pesadissimos (se a industria de games deixar né)
Daqui a pouco a gente precisa do fsr3/dlss3 pra jogar o game em 60fps, do jeito que as otimizações dos games estão kkkk
vai não man, Nvidia, intel e amd jamais deixarão isso acontecer, fora que as pessoas sentem prazer em ter um hardware novo, sinceramente eu não quero isso pois sou da epoca dos cartuchos e tudo facil demais se perde o valor.
@@clebsonsantos8256 por isso o parenteses no fim do meu comentário
@@CuriosoLtdmas a própria nvidia tem serviço de nuvem
@@AngeloFSP tem man eu tinha o sistema da Nvidia e o xbox cloud na pandemia, mas nem de longe me fez trocar o hardware físico por eles, eu digo que não quero que vire uma plataforma principal monopolizada, más tem gente que nao pode montar um pc top ou ter um console longe de mim querer que deixe de existir.
Mano!!
tanto AMD quanto Nvidia, estão caminhando no desenvolvimento de uma tecnologia muito complicada e cada vez mais eficiente, baseado na tecnologia anterior uma das outras é que a próxima está sendo desenvolvida se arranjando toda cadeia de processos para a criação de quadros.
Belo desenvolvimento.
Parabéns para ambas as empresas 👏👏👏👏
que venha o próximo desenvolvimento para nosso benéfico 😆
Ué, cadê as outras resoluções? Só tem 360p
eu acho incrivel essas novas tecnologias, pq querendo ou n já tá um negocio mt aceitável já no lançamento, é questão de tempo até eles aprimorarem mais a tecnologia, só avanços daqui pra frente
Forspoken não precisa de fsr precisa de um milagre.
kkkkk
Forspoken precisa da nossa gigante rtx 4090
Sobre o gerador de quadros via Driver, já saiu no canal do Peperaio uma review mais detalhado. Aparentemente ele funciona sim, mas softwares de terceiros não conseguem ver os FPS corretamente por que eles capturam via Game Engine, e o FS3 via driver gera os quadros nos Driver. Tem um disclaimer sobre isso na página do driver no site da AMD.
O problema das texturas sem o FSR é a falta de memória da RX 7600, por conta dela ter somente 8gb. Quando vc habilita o FSR, ele renderiza em resolução menor, usando menos memória de vídeo.
Isso acontece nas nVidia tb.
a placa testada foi a 7700XT de 12gb, é o jogo que não se ajuda mesmo e olha que hj essa é a melhor versão do jogo, imagina testar essas coisas 1 ano atrás kk
@@DiegoAraujoOficial eu entendi 7600 pelo que ele falou...Mas, infelizmente, até 12gb já tá ficando pouco para vídeo ultimamente...
Haja dinheiro pra pegar algo decente com 16gb ou mais... kkk
@@victorlgcarvalhomds eu tenho uma 2060 tava querendo fazer um up pra 12gb e tá pouco? Kkkkkk é pra Full hd
Quero ver desempenho do FSR3 + geração de quadros no microsoft simulator e Dead Space só pra ver se AMD operou um milagre msm, pois isso me faria comprar um acessível RX 7600 ao invés da desejada e caras RX 7700 XT ou RTX 4070.
Quer apostar que na hora que a Nvidia perceber a popularização do FSR3.0, eles vão liberar o FG na série 3000 😏😏😏
Deus te ouça irmão
Não duvido tb
Esse canal é muito técnico, são sempre os melhores vídeos do youtube sobre o tema!
kkkkkkkkkkk
Pros fanboys da Nvidia que tá reclamando, é só não usar, vão lá usar o DLSS 3, funciona em todas as placas.
Vai reclamar aqui no TH-cam, e usar escondido com certeza kkkkkkkk
Eu tenho uma 4070 e quando o desempenho do FSR3 estiver melhor eu uso mesmo... Caguei. Fanboy de qualquer coisa são lixos.
O FSR 3 chegou no Starfield ontem. Eu tenho uma RX 5600xt que, segundo a AMD, essa GPU não teria compatibilidade ao gerenciador de quadros....
Mas, o gerador de quadros do Starfield está funcionando muito bem na minha GPU...
Nvidia exige um hardware da NASA com preço de ouro pra fazer o que a AMD faz com um galho e um pedaço de cipó
nossa que maravilhoso viva a concorrencia bora baixar essas placas ai que o preço esta absurdo demais.
What
Em fim... A AMD!!! Mantendo a tradição de "envelhecer como vinho", só q nesse caso ai, ela esperou muito tbm haha. Mas que bom, a tendencia agora é ela melhorar, e a NVidia vir com alguma outra tec. para poder fazer valer o seu preço, pq em poder bruto, n se comparam pelo valor já, e ai ela gnahava com DLSS 3 (n mais pelo q parece), e em RT (lembrando q placas AMD tem mais vantagem com o FG do q a rival, e nesse caso, pode extinguir essa vantagem da NVidia). Vamos ver agora as implementações, pois até o FSR2, quando bem implementado, era muito bom, com esse então, n tme desculpa.
Na real o suporte do fsr 3.0 com fluid motion foi mudado e agora funciona com toda serie RX5000. Tanto que o gerador de quadros funcionou na minha RX5600XT
Gerador de quadros e o FSR 3 funcionam em quase qq placa, o que funciona apenas na série 7000 é o HYPR-RX, que junta todas as tecnologias.
Agora sim a RTX 3060 com FSR3 mostrará um ganho geracional frente à 4060.
Algo de errado não está certo...
Não entendi, explica aí kkkk
@@GadreelOFC o desempenho da 4060 é muito parecido com a da 3060.
Se bem me lembro, houve testes em que a 3060 superou a 4060.
O argumento de venda era de que o DLSS3 talvez fizesse valer a pena a compra.
Contudo, o FSR3 faz cair por terra esse argumento.
Assim, o desempenho da RTX 3060 c/ FSR3 será muito parecido com uma RTX4060 com DLSS3/FSR3.
É como se a RTX3060 fosse uma sucessora da 4060 pelo seu desempenho estar parecido, podendo em alguns casos até superar.
O final vou deixar algo de errado não está certo kk.
No minuto 20:40 a RTX 3060 supera a 4060 em 1440p Ray Tracing:th-cam.com/video/rWIjGea3S4U/w-d-xo.html
Para concluir, a ideia do comentário é ser uma ironia com um fundo de verdade.
No the last a 3060 12gb supera, pois roda no ultra hehe
Só para rodar o pacote Adobe Creative Cloud é exigido uma memória mínima de 12 Gigas. Mas fica melhor se o mini PC estiver com DDR5 de 32 Gigas e frequência entre 5200 e 5600 Mhz.
Assisto o vídeo e dá muita admiração pela AMD. Enquanto a Nvidia canibaliza seus próprios produtos, a AMD possui ética.
Ética que se estende para o suporte das Cpus no AM4 e, quem sabe, no AM5.
Estou com uma 6750xt e a placa é monstra. Nem precisa de fsr. Roda tudo no talo com fps de sobra em 1080p e em quadhd também roda bem
Também peguei essa no começo do mês. Saí de uma rx 580 kkkkk diferença absurda. Só esperando esse fsr3 pra dar uma estabilizada no starfield, porque varia muito
Seria interessante ver como funciona o fsr3 frame generator na situacao em que o processador é o gargalo
são as melhores situações, ele é computado na GPU então se ela tiver livre vai conseguir duplicar o FPS tranquilo
frame gen acaba que resolve gargalo de cpu
Dale AmD , rapaz mitou
Talvez a AMD tenha feito isso pra mostrar que o FSR 3 consegue "corrigir" um jogo bugado.....vamos ver como se sai num jogo AAA.
Desenvolvedores vendo isso 🤩🤩🤩
No Microsoft Flight Simulator, de repente seria bom, não é um game de muito movimentos, nem muito rápido. Queria aumentar os FPS do meu game, ajuda muito nos pousos. No Brasil eu consigo muitas vezes 50 FPS, mas em alguns cenários pode cair pra uns 30 fps. Nos EUA parece que agarra um pouco mais, fui fazer um voo KMCO(Orlando) p/ KORD(Chicago O'Hare) com o A320 da fnx e tava agarrando num nível de incomodar bastante, mas consegui fazer um pouso com menos de 150 de razão, mas foi mais trabalhoso do que o normal, voando no Brasil. Domingo agora vou testar denovo voar nos EUA, fazendo o voo de Chicago pra Denver. Eu tenho uma 6700xt com o Ryzen 7 5700g. Tive que comprar esse processador pra poder usar o Pc até comprar a placa de vídeo, senão pegava o 5700x, mas não sei se faria uma diferença absurda.
Mancada do jaqueta de couro não implementar algo parecido para as RTX20/30 via software...
To jogando cs 2 em full hd com fsr em qualidade. O ganho de fps é perceptível já a perda de qualidade nem tanto, está aprovado.
O problema é que agora os jogos vão ser lançados o mais cagado possível e só vai vai ser possível joga-los com o frame generator
Poisé 😮
Remnant com DLSS/FSR ja é uma prova viva disso
No buy. No cry
Acho incrível ver essas opiniões sobre Forspoken só que quando joguei com um RX 5700 o jogo simplesmente estava lindo e joguei por horas e horas sem qualquer bug.
Né. Achei o jogo bem bonito e sem bugs também. Mas pra ser justo, no vídeo o jogo tá feio mesmo, não sei o que o Diego fez
@@m.a.a94o Diego n fez nada, o jogo é uma merda, bugado e a historia é totalmente piegas, o estúdio q fez ele foi fechado pela square enix pelo vexame inclusive.
Isso só mostra uma coisa que a NVidia é mega mercenária só para as 4000 . 🤔🤡🤡🤣🤣🤣🤣🤣
Verdade
não vou mentir, eu gostaria que não tivesse musica de fundo nesse video. gostaria de ouvir somente o que o Diego está falando sobre o FSR3. dito isso curti muito o video. muito bem explicado o assunto que foi abordado como sempre. e de quebra foi divertido ver o Diego reclamando do Forspoken. haha.
Gostou da voz do carequinha né
@@m.a.a94 hehehehehehe
Eu quero ver como será a implementação do FSR3 nos consoles.
Kkkkkkķkkkkkkkkkkkkkkkkkkkkkkkkkkkkkķkkkkkkkķķķkķkkkkkkkkkkkkķkkk
Isso vai acontecer.
@@paulohrl9700 rindo por que? consoles já usam fsr2 como upscaling amiguinho, é só questão de tempo.
@@royaltxc Se você ao menos se der ao trabalho de estudar como funciona essa tecnologia, entenderá a inviabilidade dela chegar aos consoles atuais.
@@oguilhermebrexplica aí pra gente então com toda sua sabedoria, por que é inviável
A primeira vez que me lembro da AMD sendo muito mais Pró-consumidor foi com o TressFX no Tomb Raider, era uma pequena resposta ao Hairworks, só que de código aberto, o resultado foi o pureHair que foi utilizado até mesmo no Shadow TR, e mais importante foi a Mantle, se você usa Vulkan hoje, agradeça a AMD também, a Vulkan é uma "filha" da Mantle. Pena que o Market share ainda é muito pro lado da Nvidia e eu entendo o motivo disso, as Radeon ainda são menos polidas que as Geforce, falta aquele 10% a mais, tomara que a AMD consiga igualar, ela conseguiu frente a Intel então não é impossível.
concordo em partes, a AMD é pro quando interessa, pq ela lançou a RX7800 com mesma performance que a RX6800? e ainda colocou para competir com a RTX4070! deu uma capada no lineup da serie 7000 igual a nvidia esta fazendo com a serie 4000. poderia ter feito uma placa melhor e muito mais competitiva mas nao quis.
forspoken é o caralho! manda a tecnologia pra red dead amd!
dlss 3: ter placas nvidia(especificamente series 40), empresas tem que ter adicionado o suporte.
fmf: ter placas amd(opcional), empresas tem que ter adicionado o suporte(opcional).
mano o bagulho é codigo aberto e o zé ruela fala que o dlss é melhor.....vc que é fan boy da nvidia fala pra eles deixarem codigo aberto pra todos
Olá, pessoal. Só um toque: no 23:05 aparece AMFM ON nos dois lados do comparativo. O da esquerda é AMFM OFF.
Daqui há 1 mês a Nvidia vai dizer que "conseguiu adaptar" o DLSS3 Frame Generator" pras placas que não são da série 4000. Anota ai.
MANO SE ACONTECER ACABOU A OPÇÃO NVIDIA PRA MIM KKK
kkkk eu acredito fortemente que a Nvidia vá se mecher pra ao menos trazer um Frame Generator capado mas ao menos funcional pras antigas GPUs... ela não vai querer perder em feature pra AMD nem a pau.
Não fizeram isso com DLSS, com certeza não devem fazer com FG tambem, publico da Nvidia é forte, e quer anotar algo de verdade? se prepara pra ver a chuva de hate em cima do FG da AMD, falando que é infinitamente pior que o FG da Nvidia, que está inutilizavel e bla bla bla e só pra não perder a piada, falar que os drivers da AMD não prestam ausdhausdhuasdh
@@JohnM89mas ela não precisa, já tem o FSR, pq ela vai passar esse mico?
@@sox6274engraçado é que todo mundo que vejo falando mal de drivers da AMD nem tem placa de vídeo da AMD kkkk, o FSR no começo era bem pior que o dlss mesmo, mas quem falar isso do fsr3 hj tá maluco, o FG do fsr3 tá consideravelmente melhor que o da nvidia
Isso vai ficar foda quando chegar nos consoles
Cara, é estranho assitir videos do Adrenaline sobre coisas da AMD... parece que têm uma dificuldade grande reconhecer os quando a empresa acerta. A começar pelo título: o FSR3 não é concorrente do DLSS3, até porque a comparação é desleal. O FSR3 é MUITO melhor pelo simples fato de abranger mais placas.
essa parada de ver frame por frame é coisa pra doido, ainda bem que existe uahuahua Paraben spela analise
Nvidia mercenária do crl, é igual uma Apple da vida.
Eu estava esperando demais por esse vídeo
a AMD deu tiro com bala de prata na cara da NVIDIA kkkkk
Isso se mais jogos suportarem o fsr 3, por exemplo os aaa atuais da Electronic Arts apenas suportam DLSS, não tem fsr lá.
@@mauriciofabbris558 Jedi Survivor é da EA e durante meses contou apenas com o FSR.
Diego trabalha 24h, espero q o omi seja bem pago
Excelente video como sempre.