Há algum tempo, comentei sobre meu PC reiniciando e suspeitei que os timings da memória estivessem causando instabilidade, mas descobri que o problema era outro. O culpado era o Ryzen Master, que possui um ajuste automático que aplica uma espécie de undervolt. Se você não desativar, ele sempre inicia junto com o Windows. Eu usei o Ryzen Master dessa forma por bastante tempo sem problemas, mas, a partir do meio do ano passado, ele começou a causar instabilidade.
Não sei por que a NVidia faz comparação usando Framegen, se muitos jogos vieram com problemas, e a maioria dos jogos no modo geral não tem esse recurso.
E tbm com jogos atuais (na sua maioria) nem o Frame generetion consegue segurar os stuttring mesmo com 144 fps, se cair 1 ou 2 FPS é tão perceptível que que parece que caiu pra 40fps
@@davigomesantunes6097 Jedi Suvivor ficou um lixo, Remmant 2 da um efeito estranho, gosto das tecnologias até tenho uma RTX 4080, mas usar como marketing acho besteira. Quando troquei minha RTX 3080 12 GB pela 4080, o principal que me fez trocar foi desempenho bruto, mais memórias e depois Framegen.
Eu entendi oque a NVIDIA fez, só dividiu cores dedicados com IA para o frame generator não sobrecarregar os cores principais e vendeu isso como evolução kkkk😂
@evilzinabyssranger5695 não, o multi frame generator vai ser exclusivo da série 5 mil, com a diferença dele ser nativo e otimizado diretamente no hardware. A série 4 mil não tinha núcleos totalmente dedicados à IA então geravam frames com a ajuda de software.
Uso em tudo o lossless scaling. Simplesmente 4x eu jogo a 200 ou mais fps sem input lag praticamente de graça kkkkkkk. Minha rtx 3060 12gb vai durar muito tempo ainda
@@tiaojunior111 na interface do lossless voce seleciona LSFG 3.0, escolhe o modo. Eu jogo no 4x mas como jogo simulador de corrida entao nem preciso usar, so quando eu vou jogar emuladores de ps3 , ps2, ps4. na parte de Scaling do lado direito eu escolho o SGRS com nitidez 5. Embaixo eu seleciono automatico e tela cheia. Ai escolho um atalho pra ativar e pronto. Funciona em jogos em tela cheia. Em janela tambem da mas as vezes buga dependendo do jogo.
Estranho dizer que esse programa utiliza da propria gpu, eu tava com quedas bruscas tentando jogar o cyberpunk em 4k com RT ativo na 4060ti ai eu joguei o lossles em 20x e o game ficou fluido.
Travando o FPS em 30, 40 ou 60 e usando x2 fica perfeito. Principalmente com essa nova atualização, Travando o Fps baixa mais a carga da GPU recomendo esta entre 70 a 80% no máximo já que o lossless usa Carga da Gpu (outra opção é baixa a Escala da resolução no lossless). Boa Iskandar indicou um dos melhores Softwares.
@IskandarSouza tem uma diferença grande, o Frame Gen da Nvidia não perde fps base igual o Lossless pois ele é feito não por raster, e sim por Tensor Cores e agora Neural Cores, a latência é muito menor
Só perdeu FPS base porque a placa já estava no talo, a forma correta de usar o Loss é com a placa em 75% de uso, ativando o programa, ela irá para 95% em média.
Lossless Scaling é vida, principalmente pra quem não joga competitivo, to usando ele pra salvar energia do meu PC tenho uma RTX3070 em games que ela bate 220W de utilização eu travo o FPS na metade e ativo o LSFG em modo 2X e a mágica esta feita, o consumo cai cerca de 100W ficando na casa dos 120W a 130W ao pequeno custo de um frame time que sai de 13ms e salta pra 22ms, o que volto a repetir pra quem não joga competitivo é totalmente irrelevante. A julgar por isso vejo que Lossless Scaling vai fazer minha RTX3070 render por muitos anos.
@@joaonazario3764 Meu Deus cara, então seu 22ms deve ser diferente do meu 22ms kkk só pode, será que tem alguma coisa diferente ??? porque estava jogando o Indiana Jones pouco antes desse meu comentário, nesse esquema, e pra mim o jogo estava super fluido em 80fps e com o Frametime fixo em 22ms. Talvez meu Afterburner não esteja mostrando corretamente as informações, porque do contrario não é esse "fim de mundo" que você citou não kkkk
recentemente eu estava usando o LS no meu setup de modding de Skyrim, que está extremamente pesado. Não conseguia nem fechar os 60 quadros nativamente usando uma 3080 ti, mas com o lossless consigo mais de 100 quadros sem sentir tanto input lag.
Pra quem sabe usar o programa corretamente, ele é incrível uma das melhores coisad ja feitas nos últimos anos. O problema é que tem muito neandertal que não procura como usar o programa, ai joga o jogo a 15, 20 fps com a gpu em 100% e quer que o programa faça milagre, o mínimo de fps é 30, o recomendado é 40 e o ideal pra ficar excelente é o jogo rodando a 60fps, e sempre antes de ativar o programa precisa ter um pouco de folga na gpu. Se ativar o programa com a gpu em 100% não vai ficar legal. Ai muitos perguntam "ain mas como vou deixar folga na gpu" simples é só travar os fps pelo jogo, msi, ou amd adrenalin pelo radeon chill.
Olá, tudo bem ? Eu gostaria de saber aqui com você se eu preciso atualizar a bios daquela b650i da China, quero usar um ryzen 5 7500f, eu preciso atualizar a bios para usar esse processador? Por favor me responde aí 😢😢😢😢😢😢😢
É igual o testado no vídeo, a NVidia só dividiu os cores e dedicou ele exclusivamente para gerar frames e deve ter otimizado os cálculos, mas a tecnologia é exatamente igual do loseless scale kkk😅
@mvteus3944 @mvteus3944 é isso que eu disse. A NVidia criou cores dedicados na placa, só para o frame generator, então ele não sobrecarrega o uso da placa, igual ocorre com o loseless scale. Eu já saquei já, daqui a pouco a AMD tá fazendo a mesma coisa, pode anotar ai kkkk
Mais e foda querer comparar o dlss da nividia com o loss e ate injusto kkkk nividia tem dinheiro suficiente pra melhorar esse frame gen com o dlss sem daley
@@Brasilonlineee mds vey para de ser emocionado,a amd faz a mesma coisa com fsr4, estou falando da tecnologia e não da empresa A OU B,se vai comentar besteira então fica calado.
O que tu fez foi legitimo. Só olhar o frametime. Pra ver a diferença teria que colocar lado a lado com a tecnologia da Nvidia. Se tu faz isso com uma 4060 depois da NVIDIA soltar a tecnologia (mesmo que tivesse usado o msm recurso), a molecada ja ia toda pro banheiro de biluga dura, vestindo jaquetinha de couro pra se saciar, tamanha excitação que voce teria causado heheh. ZOEIRA A PARTE, são tecnologias que ajudam quem nao tem hardware suficiente a jogar o que não conseguiria. Porém eu não troco o nativo, a responsividade etc. Isso pq HOJE as engines estão cagadas, todas com borrão por causa DO TAA e má otimização. Nessas condições, o upscale consegue limpar a imagem e fazer parecer praticamente igual ao nativo. Mas ai entra em outra discussão, que são as produtoras otimizando mal o jogo pq tão sabendo que a galera vai usar DLSS OU FSR. MENOS TEMPO de otimização = menos tempo de desenvolvimento = menos custo = mais retorno e retorno ANTECIPADO pois encurtou o ciclo de produção. Tem um movimento de desenvolvedores indies putos com isso e mostrando como otimizar - em video inclusive, pra outros desenvolvedores aprenderem. A unreal Engine deixou as desenvolvedoras folgadas e os graficos avançaram pouco pro PESO que tem apresentado. A razão é essa.
NVIDIA e seus fakeframes.. oque me chamou atenção na apresentação da Nvidia foi a RTX5090 foi que em percormance bruta nem tava conseguindo os 27fps em um jogo dai ligaram esses fakeframes e rapidamente subiu para 240fps... eu acho que em performance bruta ela deve ser 20 a 27% superior à 4090, em jogos leves... acredito que em jogos pesados sem esses fakeframes ela nem chega aos 10%
Acho q deve ser mais, uns 30% a 35%, é a única placa com ganho real sem usar muletas vs a geração passada... Sdds das rtx 30 e GTX 1000 , uma 3080 brigava até com 3090ti e uma 1060 empatava com a gtx980ti, agr uma 4060 perde pra uma 3060ti kkk
Pra quem tem uma plaquinha simples esse app e uma revolução imensas,vai lhe garantir uma boa perfomance em jogos de capanha, e vai da longividade a seu hadware por 16 mizeros contos,
@@IskandarSouza na boa. Achei horrível jogar assim. A latência me incomodou bastante. Mas ainda minha 2080 Ti ta guerreira aqui. JOgo em altíssima qualidade em 2k.
@@IskandarSouza ou ative o Vsync para deixar folga na GPU e coloque no máximo em 2x, vai diminuir consideravelmente imput lag. Não é recomendado usar esse programa com a placa liberada pra jogar o máximo de desempenho em frames, vai dar imput lag visível
Lossless funciona muito bem, se souber configurar corretamente e em qual tipo de game utilizar. Mas é claro, não chega aos pés do DLSS e Frame Gen. Lossless é puro software igual FSR, mas DLSS e FG é hardware dedicado e se sai infinitamente melhor.
Dica de vídeo tbm, ja que é pra gerar mais e mais quadros ativa o fsr no game em qualidade, dps vai no driver da amd e ativa o AFMF 2 no máximo que da e ativa o radeon ant-lag o fps vai mais que triplicar kkkkkkkkkk tenho uma rx 6750 xt e fiz isso so por curiosidade e o fps sobe e muito kkkkk a qualidade visual vc sente diferença so se ficar balançando a camera igual maluco kkk fiz isso no the florest e foi pra mais de 400 fps kkkkkkkkk
Você menciona muito a questão do delay, pois de fato ele existe na série 4000. Mas o que te garante que vai existir (na mesma proporção) na série 5000?
Não existe mágica. No final do dia são quadros interpolados, é como vc não ter controle do jogo por um breve momento, pois as imagens geradas baseiam-se nos quadros renderizados e vc só verá o seu input refletindo em sua tela no próximo quadro renderizado. Para o input delay o que importa são os quadros renderizados pela GPU e outros fatores. Os quadros interpolados são inversamente proporcionais nessa equação.
O principal fator que torna jogar com FPS alto bom é a menor latência, nunca entendi a lógica de usar esses gerador de quadros que adicionam input lag. Sobre as RTX 50, quase não vai aumentar a latência em relação as RTX 40 devido ao hardware dedicado que gera muito rapidamente os quadros. E o Reflex 2 com frame warp pode ser bem interessante também. Pesquisem "Async Reprojection outside of VR" é muito semelhante ao que será o Reflex 2. Eu testei esse "jogo" limitando em 10 fps e ficou muito fluido com o "timewarp". Ele cria falhas visuais ao mover a câmera, mas na tecnologia da NVidia a IA deve resolver esse problema com maestria.
dlss é uma tecnologia boa, ganha fps de verdade e pra mim é dificil notar a diferença durante a gameplay. FG é puro marketing, só serve para melhorar algo que já está bom (sair de uns 70 para mais de 100 fps) se o game ta rodando uma merda, ligar o FG é uma merda enfeitada com lacinho, fica bonito de ver de longe mas se chegar perto fede
Concordo, mas se for pensar ajuda muito pq mts jogos q n jogaria a 60 agr pode, pq ruim ja vai ficar de qq jeito, pelo menos um ruim fluido do q um ruim nao fluido
Isso não aumentar os fps , melhora a fluidez. Eu rio muito desses canais de formatadores de pc que acham que são da area de TI. kkkkkkkkkkkkkkkkkkkkkkkkkkkkk
só vi verdades, pra que comprar placa nova se da pra baixar placa de vídeo com o Lossless ?? jogo competitivo fica uma carniça, mas jogos single player e campanha da pra brincar legal
a verdade é uma só rapaziada pega tudo esse monte de lixo e compra a serie 5070 o resto é resto. vou fazer isso to esperando faz tempo ja com minha rx6600 tenho um ryzen 7 5700x pra mim ja ta otimo só ta faltando a placa eu sei la vi que a serie 40 pisou na bola e eu segurei minha 6600 e vou fala levando muitos jogos 2k alto ainda ta dando conta porem eu vou pular de um patamar monstro.
Mas é óbvio que é um vídeo zuando a NVidia, impressionante que ainda tem pessoas que estão levando isto a sério, devem ser os mesmos que acredita em terra plana
N foi por isso e sim pq o frame estava sendo criado a partir de 30fps pq para gerar esses frame esta usando o recurso da placa, n ha algo dedicado na 6600 soh para gerar esses quadros ai quanto mais vezes x vc botar mais seu fps original para criar esses quadtos vai diminuir e assim aumentando o lag. Essa eh a diferença das nvidia q tem algo dedicado soh para criar os frames fake.
@@paulopereira375exatamente isso, eu tenho uma 4090 e uso o dlss 3, não tem comparação com o lossless scaling, deu pra sacar o tom de ironia no vídeo, mas quem me mandou ele, estava achando que o lossless faz milagre, tenho o programa e uso no nolvus, mas o imputlag incomoda de mais.
@@vinisamanosuke sim, nunca usei esse programa mas acredito q ele crie mais imput lag do q ja tinha e o imput lag de 30 ja eh alto ai fica quase injogavel, o da nvidia pelo q vi ate cria algum imput lag mas quase nada e o principal esses quadros gerado n pesa no desempenho original. Esse eh o diferencial principal.
@@IskandarSouza Teve um canal que usou e parece bugado, pois o app trava a 200 fps, deve ser por conta da engine do jogo, mas fica extremamente distorcido, da nem pra jogar, a não ser se tiver sei lá 165 fps e quiser aumentar.
Não é tudo oq parece fps é só um número visual ... eu msm testei esse Lossless Scaling hj ... o input lag é bem grande pra quem ta acostumado jogar sem é bem entranho e lagado não adianta nd ta 99999999fps fakes e todo lagado nos comandos kkkk ... pode ser q seja bom pra quem joga em pc bem fraco seja bom pra chegar nos 60.
@@tonredbull O frame gen é só para placa que não consegue mais passar dos 60 FPS, pode ver os testes da NVidia, ela testa com 30 FPS nativo e depôs de ativo o jogo passa de 200 fps, então provavelmente não vai ter lag na linha 5 mil, por causa dos cores dedicados. Esse é a desvantagem do loseless scale, ele sobrecarrega o uso da placa, pois roda via software.
@@caveira3836 sim pra quem tem pc fraco ou quer rodar com uma qualidade maior games modo história é top ... agora pra quem ja tem um pc q roda acima 60 fps n não vi vatagem além de ter mts bug visuais e delay nos comandos kkk
@@tonredbullquanto maior a resolução, menor os bugs visuais, o certo é travar o FPS em 60 e ativar o Loss em 2x, mas para a Mágica funcionar, tem de observar que a placa tem de estar em 75%, pois quando ativa o Loss, ela irá para 100%.
sem querer desmerecer ,mas o lossless não chega nem perto do frame generation da nvidia , eu tenho uma 4070 e já testei ele aqui , a qualidade de imagem é absurda melhor na nvidia ,tanto na qualidade ,quanto no ghosting que praticamente não existe
a diferença é que o lossless além de ser feito por menos pessoas, ainda é possível usar por exemplo numa RX 550, qnd vc for jogar alguns jogos realmente vc vai perceber ghosting, mas eu particularmente não me importei tanto com ghosting no Horizon zero Dawn que testei, mas no Red Dead 2, fica extremamente feio o ghosting
O LSFG utiliza apenas informação do espaço da tela para gerar os frames, a nvidia e amd utilizam informações de dentro do jogo para diminuir os artefatos e o input lag, ainda assim, é muito impressionante a qualidade que o LSFG consegue entregar, contando que seu fps esteja travado e estável em pelo menos 30 fps os artefatos são minimos e o input lag é quase nulo dependendo da configuração, e tem sim muitas vantagens se comparado com as outras tecnologias, como por exemplo a possibilidade de fazer upscaling, frame gen até 20x (o que é absurdo) e tudo isso pode ser utilizado em qualquer programa, inclusive em qualquer video
@@romaosnx eu sou chato pra caramba com isso kkkk ,eu percebi ghosting kkk , tanto que todo jogo que eu jogo ,eu manualmente troco o preset do Dlss pro "E" que praticamente não tem ghosting algum
@@Samuel-nj4vbsim , eu não estou dizendo que é horrível , eu mesmo uso em alguns jogos mais antigos , só estou dizendo que muita gente acaba sendo enganada achando que ele faz a mesma coisa que uma rtx 40 ou 50 faz ta ligado ? e não é nem de perto a mesma coisa , é tipo tu jogar um jogo VR naquele suporte de celular , e jogar um jogo VR num óculos VR de verdade ,o do celular é ruim? não ,mas não chega nem perto
não gosto desse programa porque ele deixa muito ghost, eu não gosto nem do dlls muleta da disgraça kkkkkjjjj imagina essa gambiarra, eu ate comprei mas arrependi, o game ficou horroroso
Boa Iskandar 😂 não esperava menos de você! Muito bom o vídeo
Kkkkkk
Valeus
Há algum tempo, comentei sobre meu PC reiniciando e suspeitei que os timings da memória estivessem causando instabilidade, mas descobri que o problema era outro. O culpado era o Ryzen Master, que possui um ajuste automático que aplica uma espécie de undervolt. Se você não desativar, ele sempre inicia junto com o Windows. Eu usei o Ryzen Master dessa forma por bastante tempo sem problemas, mas, a partir do meio do ano passado, ele começou a causar instabilidade.
eu parei de usar Ryzen master quando meu Pc não abria mais ele, aí fiz overclock pela BIOS, resultado maravilhoso
O que seria Ryzen Master?
@@felizbertomacedo2984 programa feito pela AMD para overclock de processadores ryzen
Não sei por que a NVidia faz comparação usando Framegen, se muitos jogos vieram com problemas, e a maioria dos jogos no modo geral não tem esse recurso.
Marketing, com 3 frames fakes para cada 1 de verdade, fez um placa mid parecer mais forte que a 4090.
E tbm com jogos atuais (na sua maioria) nem o Frame generetion consegue segurar os stuttring mesmo com 144 fps, se cair 1 ou 2 FPS é tão perceptível que que parece que caiu pra 40fps
Todos os jogos lançamentos vem com essas tecnologias. Acho que vocês não tem jogado nada mesmo
@@davigomesantunes6097>>>>>>"lançamentos"
@@davigomesantunes6097 Jedi Suvivor ficou um lixo, Remmant 2 da um efeito estranho, gosto das tecnologias até tenho uma RTX 4080, mas usar como marketing acho besteira. Quando troquei minha RTX 3080 12 GB pela 4080, o principal que me fez trocar foi desempenho bruto, mais memórias e depois Framegen.
Eu entendi oque a NVIDIA fez, só dividiu cores dedicados com IA para o frame generator não sobrecarregar os cores principais e vendeu isso como evolução kkkk😂
mas sempre foi assim na nvidia
@evilzinabyssranger5695 não, o multi frame generator vai ser exclusivo da série 5 mil, com a diferença dele ser nativo e otimizado diretamente no hardware. A série 4 mil não tinha núcleos totalmente dedicados à IA então geravam frames com a ajuda de software.
Sim, a tecnologia feira pela 3° maior empresa do mundo e que deixou ela rica assim é igual a um software feito por meia dúzia de pesosas
Uso em tudo o lossless scaling. Simplesmente 4x eu jogo a 200 ou mais fps sem input lag praticamente de graça kkkkkkk. Minha rtx 3060 12gb vai durar muito tempo ainda
ME EXPLICA COMO USAR ESSE LOSS POIS TENHO UMA 3060 E NAO TENHO SUCESSO COM ELE FICA TUDO LAGADO E COM FPS BAIXO AI QUANDO DESATIVO VOLTA AO NORMAL
@@tiaojunior111 na interface do lossless voce seleciona LSFG 3.0, escolhe o modo. Eu jogo no 4x mas como jogo simulador de corrida entao nem preciso usar, so quando eu vou jogar emuladores de ps3 , ps2, ps4. na parte de Scaling do lado direito eu escolho o SGRS com nitidez 5. Embaixo eu seleciono automatico e tela cheia. Ai escolho um atalho pra ativar e pronto. Funciona em jogos em tela cheia. Em janela tambem da mas as vezes buga dependendo do jogo.
Sem input lag é impossível, tá de sacanagem já.
@@VicthorUnderline aqui no meu monitor se tem, com certeza tem, não percebo. É muito tranquilo. Mas se for monitor 60hz acho que percebe mais
@@ichiho98 me passa as configurações? Tô usando 144hz
já testei esse negócio de todas as formas e não consigo suportar o efeito Ghost que fica horrível
usa a versão 3.0 deu uma melhorada bacana
Issaê Iskândalo, se virou carnaval que se exploda! hsauhsahha
Estranho dizer que esse programa utiliza da propria gpu, eu tava com quedas bruscas tentando jogar o cyberpunk em 4k com RT ativo na 4060ti ai eu joguei o lossles em 20x e o game ficou fluido.
a imagem fica cagada?
Uma pergunta. O Upscale do lossless scaling sem gerador de quadros é melhor que upscale do FSR 2?
Sim
Travando o FPS em 30, 40 ou 60 e usando x2 fica perfeito. Principalmente com essa nova atualização, Travando o Fps baixa mais a carga da GPU recomendo esta entre 70 a 80% no máximo já que o lossless usa Carga da Gpu (outra opção é baixa a Escala da resolução no lossless). Boa Iskandar indicou um dos melhores Softwares.
Quando testei o 4x do Loss Less quando saiu eu quase passei mal, era um treco medonho
Preferiria que fizesse um teste mais justo usando o mesmo processador
@IskandarSouza tem uma diferença grande, o Frame Gen da Nvidia não perde fps base igual o Lossless pois ele é feito não por raster, e sim por Tensor Cores e agora Neural Cores, a latência é muito menor
exatamente, mas essa nova versão 3.0 tá uma teta, melhorou demais
Só perdeu FPS base porque a placa já estava no talo, a forma correta de usar o Loss é com a placa em 75% de uso, ativando o programa, ela irá para 95% em média.
Lossless Scaling é vida, principalmente pra quem não joga competitivo, to usando ele pra salvar energia do meu PC
tenho uma RTX3070 em games que ela bate 220W de utilização eu travo o FPS na metade e ativo o LSFG em modo 2X e a mágica esta feita,
o consumo cai cerca de 100W ficando na casa dos 120W a 130W ao pequeno custo de um frame time que sai de 13ms e salta pra 22ms,
o que volto a repetir pra quem não joga competitivo é totalmente irrelevante.
A julgar por isso vejo que Lossless Scaling vai fazer minha RTX3070 render por muitos anos.
Também uso para diminuir o consumo na minha RTX.
22ms é complicado pra 60fps viu
Se tu não sente diferença entre 13ms e 22ms, meus parabéns, você tem muita sorte kkkkkkk, pra mim 22ms é injogável, prefiro assistir no YT a gameplay
@@mr.schaeffer5399 no meu caso 80fps
@@joaonazario3764 Meu Deus cara, então seu 22ms deve ser diferente do meu 22ms kkk só pode, será que tem alguma coisa diferente ???
porque estava jogando o Indiana Jones pouco antes desse meu comentário, nesse esquema, e pra mim o jogo estava super fluido em 80fps e com o Frametime fixo em 22ms.
Talvez meu Afterburner não esteja mostrando corretamente as informações, porque do contrario não é esse "fim de mundo" que você citou não kkkk
recentemente eu estava usando o LS no meu setup de modding de Skyrim, que está extremamente pesado. Não conseguia nem fechar os 60 quadros nativamente usando uma 3080 ti, mas com o lossless consigo mais de 100 quadros sem sentir tanto input lag.
mas mesmo assim, fg ainda é algo que me dá um certo enjoo. não se compara com rodar nativamente e com dlaa
Se tiver jogando com teclado e mouse, realmente ainda da uma sensação estranha, no controle nem percebo que ta ativado
Pra quem sabe usar o programa corretamente, ele é incrível uma das melhores coisad ja feitas nos últimos anos. O problema é que tem muito neandertal que não procura como usar o programa, ai joga o jogo a 15, 20 fps com a gpu em 100% e quer que o programa faça milagre, o mínimo de fps é 30, o recomendado é 40 e o ideal pra ficar excelente é o jogo rodando a 60fps, e sempre antes de ativar o programa precisa ter um pouco de folga na gpu. Se ativar o programa com a gpu em 100% não vai ficar legal. Ai muitos perguntam "ain mas como vou deixar folga na gpu" simples é só travar os fps pelo jogo, msi, ou amd adrenalin pelo radeon chill.
testei no bloodborne la pelo shadps4 e agora sim fica liso liso e o delay realmente diminiu muito
Pior q só agora ficou bom o loss less, antes tive q pedir 2 vezes o reembolso pq era ruim de mais. Ainda assim, fica bom só acima de 60 fps nativo.
Olá, tudo bem ? Eu gostaria de saber aqui com você se eu preciso atualizar a bios daquela b650i da China, quero usar um ryzen 5 7500f, eu preciso atualizar a bios para usar esse processador? Por favor me responde aí 😢😢😢😢😢😢😢
ele é o R5 7600 com falha na gpu ele é reconhecido normalmente.
Não precisa atualizar
@@IskandarSouza valeu meu Mn, muito obrigado
Iskandar, tem um programa que serve pra diminuir o imputlag, cham-se ISLC, acho que usar ele em conjunto com o loseless scaling da boa
Vou ver esse
Tbm uso, juntamente com o DPC Latency Checker... para os competitivos, é primordial.
Iskandar qual kit de fans e bom pra trazer do ali.? Vc disse que as da aigo são fracas , qual eu pego?
Pesquisa ventilador teucer
Teucer, phanteks, UPSIREN
Alguém saberia me dizer como faço para identificar a versão da 6600M? Se é V1, V2 ou V3?
olha na caixa que deve ter, um adesivo com essa informação
conseguiu? to nessa duvida
@@aegontargaryen1752 peguei sem caixa amigo.
@Iphoneuserk ainda não.
usar muleta pra ganhar fps ficou na moda em iskandar kkkkkkkkkkkkk
Top demais mano!
Espero que esse vídeo seja extremamente sarcástico, porque quem já testou Lossless sabe que não é o que foi falado no vídeo.
Já testei e comprovo que é o testado no vídeo.
É igual o testado no vídeo, a NVidia só dividiu os cores e dedicou ele exclusivamente para gerar frames e deve ter otimizado os cálculos, mas a tecnologia é exatamente igual do loseless scale kkk😅
@@caveira3836 Losslescaling é baseando unicamente em software, dlss é baseado em hardware e software cara é totalmente diferente
@mvteus3944 @mvteus3944 é isso que eu disse. A NVidia criou cores dedicados na placa, só para o frame generator, então ele não sobrecarrega o uso da placa, igual ocorre com o loseless scale. Eu já saquei já, daqui a pouco a AMD tá fazendo a mesma coisa, pode anotar ai kkkk
ruim demais ..no Elden Ring impossivel usar com a rtx 4060ti
Mais e foda querer comparar o dlss da nividia com o loss e ate injusto kkkk nividia tem dinheiro suficiente pra melhorar esse frame gen com o dlss sem daley
Mas o jogo não tem
Quanto é 200% de 0?
@@IskandarSouzapoderia ter feito uma comparação do loss com o frame generation da nividia em outro jogo que tenha suporte,pra galera ver a diferença.
Cara tu é gado de NVIDIA é😂 esse fps fake já têm mil anos e continua com lentidão nos jogos.
@@Brasilonlineee mds vey para de ser emocionado,a amd faz a mesma coisa com fsr4, estou falando da tecnologia e não da empresa A OU B,se vai comentar besteira então fica calado.
@Araujo107 Deixa de ser Fanboy e esquece AMD. E foca na M.... que NVIDIA está fazendo com vocês.
O que tu fez foi legitimo.
Só olhar o frametime. Pra ver a diferença teria que colocar lado a lado com a tecnologia da Nvidia.
Se tu faz isso com uma 4060 depois da NVIDIA soltar a tecnologia (mesmo que tivesse usado o msm recurso), a molecada ja ia toda pro banheiro de biluga dura, vestindo jaquetinha de couro pra se saciar, tamanha excitação que voce teria causado heheh. ZOEIRA A PARTE, são tecnologias que ajudam quem nao tem hardware suficiente a jogar o que não conseguiria.
Porém eu não troco o nativo, a responsividade etc. Isso pq HOJE as engines estão cagadas, todas com borrão por causa DO TAA e má otimização.
Nessas condições, o upscale consegue limpar a imagem e fazer parecer praticamente igual ao nativo.
Mas ai entra em outra discussão, que são as produtoras otimizando mal o jogo pq tão sabendo que a galera vai usar DLSS OU FSR.
MENOS TEMPO de otimização = menos tempo de desenvolvimento = menos custo = mais retorno e retorno ANTECIPADO pois encurtou o ciclo de produção.
Tem um movimento de desenvolvedores indies putos com isso e mostrando como otimizar - em video inclusive, pra outros desenvolvedores aprenderem.
A unreal Engine deixou as desenvolvedoras folgadas e os graficos avançaram pouco pro PESO que tem apresentado. A razão é essa.
NVIDIA e seus fakeframes.. oque me chamou atenção na apresentação da Nvidia foi a RTX5090 foi que em percormance bruta nem tava conseguindo os 27fps em um jogo dai ligaram esses fakeframes e rapidamente subiu para 240fps... eu acho que em performance bruta ela deve ser 20 a 27% superior à 4090, em jogos leves... acredito que em jogos pesados sem esses fakeframes ela nem chega aos 10%
Acho q deve ser mais, uns 30% a 35%, é a única placa com ganho real sem usar muletas vs a geração passada... Sdds das rtx 30 e GTX 1000 , uma 3080 brigava até com 3090ti e uma 1060 empatava com a gtx980ti, agr uma 4060 perde pra uma 3060ti kkk
Oshe ta usando a versão free bem antiga, o LSG ja ta na versao 3.0 e ta bem melhor, 17 conto mano na steam ta falido? kkk
Pra quem tem uma plaquinha simples esse app e uma revolução imensas,vai lhe garantir uma boa perfomance em jogos de capanha, e vai da longividade a seu hadware por 16 mizeros contos,
como que faz pra tirar o imput lag?? to tentando jogar indiana e fica uma puta latência...os controles tem aquele ''atraso'' sabe...como que faz?
Não tira
Mas tentar abaixar o gráfico e não use mais que 2x
@@IskandarSouza na boa. Achei horrível jogar assim. A latência me incomodou bastante.
Mas ainda minha 2080 Ti ta guerreira aqui. JOgo em altíssima qualidade em 2k.
@@IskandarSouza ou ative o Vsync para deixar folga na GPU e coloque no máximo em 2x, vai diminuir consideravelmente imput lag. Não é recomendado usar esse programa com a placa liberada pra jogar o máximo de desempenho em frames, vai dar imput lag visível
Como vc configurou o aplicativo? E sua placa de vídeo não pode ficar em 100% de uso
Vai ter promoção de projetor y300?
dia 20? possível
@@IskandarSouza 🤞
Lossless funciona muito bem, se souber configurar corretamente e em qual tipo de game utilizar.
Mas é claro, não chega aos pés do DLSS e Frame Gen.
Lossless é puro software igual FSR, mas DLSS e FG é hardware dedicado e se sai infinitamente melhor.
Tem testes do lossless vs fsr vs dlss no adrenaline, e não teve muita diferença entre eles...
no meu monitor o LossLess deixa o brilho meio estourado, alguém sabe como resolver?
da pra entender perfeitamente o que vc quér dizer e o pior é que o povo aceita de boa
Dica de vídeo tbm, ja que é pra gerar mais e mais quadros ativa o fsr no game em qualidade, dps vai no driver da amd e ativa o AFMF 2 no máximo que da e ativa o radeon ant-lag o fps vai mais que triplicar kkkkkkkkkk tenho uma rx 6750 xt e fiz isso so por curiosidade e o fps sobe e muito kkkkk a qualidade visual vc sente diferença so se ficar balançando a camera igual maluco kkk fiz isso no the florest e foi pra mais de 400 fps kkkkkkkkk
Tem gente que leva a serio um deboche! 😂
Segundo a NVIDIA F0D4-S3 o Delay o que importa é gerar 4x mais fps com IA ! E AGORA NVIDIA ??
Na próxima geração o framegen vai fazer todos os quadros e você vai só assistir ao jogo. Nvidia sempre pensando no conforto do jogador.
lossless da hz(fluidez), não fps glr, mas pra quem tem uma 1060 igual eu, isso ai ajuda mto, trava o jogo a 50 fps e bota 2x no loss, e vai ser feliz
pow, a rtx 4070 bateu 120+ sem combate, quando chegou no combate caiu pra 100+ fps,
Você menciona muito a questão do delay, pois de fato ele existe na série 4000. Mas o que te garante que vai existir (na mesma proporção) na série 5000?
Aparentemente será do nível do atual... Só testando pra saber
Não existe mágica. No final do dia são quadros interpolados, é como vc não ter controle do jogo por um breve momento, pois as imagens geradas baseiam-se nos quadros renderizados e vc só verá o seu input refletindo em sua tela no próximo quadro renderizado.
Para o input delay o que importa são os quadros renderizados pela GPU e outros fatores. Os quadros interpolados são inversamente proporcionais nessa equação.
Quanto menor o quadro original o frame fake eh gerado maior vai ser o delay do mouse eh simples.
O principal fator que torna jogar com FPS alto bom é a menor latência, nunca entendi a lógica de usar esses gerador de quadros que adicionam input lag.
Sobre as RTX 50, quase não vai aumentar a latência em relação as RTX 40 devido ao hardware dedicado que gera muito rapidamente os quadros.
E o Reflex 2 com frame warp pode ser bem interessante também.
Pesquisem "Async Reprojection outside of VR" é muito semelhante ao que será o Reflex 2. Eu testei esse "jogo" limitando em 10 fps e ficou muito fluido com o "timewarp". Ele cria falhas visuais ao mover a câmera, mas na tecnologia da NVidia a IA deve resolver esse problema com maestria.
ta kkmas e a fluidez ta de 120 ou ta de 50 ??????? essa e a parada
O AFMF2 ta dobrando o fps na rx6600 sem input lag
Essa tecnologia é boa demais, uso direto, para a linha 6000 FMF2 é ouro.
Eu só queria que rodasse a 60 FPS nem nem um travamento
As placas estão caras $$$$ pq o dólar tá caro... dizer que é uma culpa da NVIDIA é muita sacanagem.
dlss é uma tecnologia boa, ganha fps de verdade e pra mim é dificil notar a diferença durante a gameplay. FG é puro marketing, só serve para melhorar algo que já está bom (sair de uns 70 para mais de 100 fps) se o game ta rodando uma merda, ligar o FG é uma merda enfeitada com lacinho, fica bonito de ver de longe mas se chegar perto fede
Concordo, mas se for pensar ajuda muito pq mts jogos q n jogaria a 60 agr pode, pq ruim ja vai ficar de qq jeito, pelo menos um ruim fluido do q um ruim nao fluido
essa latência deve tá show kkkkkkk o importante é se divertir
Bom dia venho do futuro pra dizer que ja tem versão do pato 3.0, com melhorias ainda melhores, espero video novo sobre.
Não funciona de jeito nenhum no meu pc
Eu uso o Lossless scaling com a APU do Ryzen 7 5700G, tão cedo não comprarei placa de vídeo.
🍺😂👌
Eu tenho uma Rtx4070 top este vídeo curti o programa
Só é impraticável em jogos competitivos online, o imput lag torna os jogos injogáveis.
Aqui da erro ao abrir pq será
So eu vi linha frame time muito alta! Por isso ele ficou ruim de acertar os tiros😅
Great video.
Isso não aumentar os fps , melhora a fluidez. Eu rio muito desses canais de formatadores de pc que acham que são da area de TI. kkkkkkkkkkkkkkkkkkkkkkkkkkkkk
Pq eu só fico sabendo disso quando eu já morri de raiva?
o dobro de FPS mais custando 4,000, tinha que ser no máximo 2.600.😥😥😥😥😥😥
Ainda quero ver 5070 x 4090 .. Ll não é Dlls4
vai de jogo pra jogo
no f1, eu nao senti imput lag
no fifa, ficou horrivel
PERFEITO!!!!!!
Valeus
E consome menos energia que a 4070
só vi verdades, pra que comprar placa nova se da pra baixar placa de vídeo com o Lossless ?? jogo competitivo fica uma carniça, mas jogos single player e campanha da pra brincar legal
Peimeiro❤
second
特塞罗
Apesar da zuera, é bom travar o FPS usando o rivatuner. Vai ter um desempenho melhor. Bom vídeo.
Realmente vi o pessoal travando em 55 ou algo assim
Como cai no muito, achei que não precisava
minha 3080 vira uma 4090 facil kakakka
Até mais! Já será 5090
fez um video atrasado, hoje liberaram a versão 3.0. diz que pode até aumentar 20x o fps.
Mas eu usei essa
Só não fiz isso
@@IskandarSouza ah entendi, e que eu tinha colocado no modo beta.
a verdade é uma só rapaziada pega tudo esse monte de lixo e compra a serie 5070 o resto é resto.
vou fazer isso to esperando faz tempo ja com minha rx6600 tenho um ryzen 7 5700x pra mim ja ta otimo só ta faltando a placa eu sei la vi que a serie 40 pisou na bola e eu segurei minha 6600 e vou fala levando muitos jogos 2k alto ainda ta dando conta porem eu vou pular de um patamar monstro.
Mas é óbvio que é um vídeo zuando a NVidia, impressionante que ainda tem pessoas que estão levando isto a sério, devem ser os mesmos que acredita em terra plana
Esse programa parece ter menos imput lag que o frame gen, e agora diminuíram 27% do imput lag.
Parece que estao chegando ao limite do desenvolvimento dos hardware e estao investindo em software pq ja nao conseguem avancos significativos.
E tome Tadalafila pra aguentar o tranco
Faltou dizer que é 4x mais imput lag, por isso você não conseguiu mirar direito.
N foi por isso e sim pq o frame estava sendo criado a partir de 30fps pq para gerar esses frame esta usando o recurso da placa, n ha algo dedicado na 6600 soh para gerar esses quadros ai quanto mais vezes x vc botar mais seu fps original para criar esses quadtos vai diminuir e assim aumentando o lag. Essa eh a diferença das nvidia q tem algo dedicado soh para criar os frames fake.
@@paulopereira375exatamente isso, eu tenho uma 4090 e uso o dlss 3, não tem comparação com o lossless scaling, deu pra sacar o tom de ironia no vídeo, mas quem me mandou ele, estava achando que o lossless faz milagre, tenho o programa e uso no nolvus, mas o imputlag incomoda de mais.
@@paulopereira375 mas sim, e pela falta desse hardware dedicado, que o imput lag é tão alto.
@@vinisamanosuke sim, nunca usei esse programa mas acredito q ele crie mais imput lag do q ja tinha e o imput lag de 30 ja eh alto ai fica quase injogavel, o da nvidia pelo q vi ate cria algum imput lag mas quase nada e o principal esses quadros gerado n pesa no desempenho original. Esse eh o diferencial principal.
O FPS TA VOANDO AQUI NA GTX 1080 TI😎
Agora vai ter lossless com x20 quadros nem vai ficar bizarro os efeitos bizarros né?
Se o cara que usar gostar, será o bastante
@@IskandarSouza Teve um canal que usou e parece bugado, pois o app trava a 200 fps, deve ser por conta da engine do jogo, mas fica extremamente distorcido, da nem pra jogar, a não ser se tiver sei lá 165 fps e quiser aumentar.
Não é tudo oq parece fps é só um número visual ... eu msm testei esse Lossless Scaling hj ... o input lag é bem grande pra quem ta acostumado jogar sem é bem entranho e lagado não adianta nd ta 99999999fps fakes e todo lagado nos comandos kkkk ... pode ser q seja bom pra quem joga em pc bem fraco seja bom pra chegar nos 60.
@@tonredbull O frame gen é só para placa que não consegue mais passar dos 60 FPS, pode ver os testes da NVidia, ela testa com 30 FPS nativo e depôs de ativo o jogo passa de 200 fps, então provavelmente não vai ter lag na linha 5 mil, por causa dos cores dedicados. Esse é a desvantagem do loseless scale, ele sobrecarrega o uso da placa, pois roda via software.
@@caveira3836 sim pra quem tem pc fraco ou quer rodar com uma qualidade maior games modo história é top ... agora pra quem ja tem um pc q roda acima 60 fps n não vi vatagem além de ter mts bug visuais e delay nos comandos kkk
@@tonredbullquanto maior a resolução, menor os bugs visuais, o certo é travar o FPS em 60 e ativar o Loss em 2x, mas para a Mágica funcionar, tem de observar que a placa tem de estar em 75%, pois quando ativa o Loss, ela irá para 100%.
Ou travar em 45fps, já fica bem legal.
😮Kkkk quer chorar mande audio ...😅
sem querer desmerecer ,mas o lossless não chega nem perto do frame generation da nvidia , eu tenho uma 4070 e já testei ele aqui , a qualidade de imagem é absurda melhor na nvidia ,tanto na qualidade ,quanto no ghosting que praticamente não existe
a diferença é que o lossless além de ser feito por menos pessoas, ainda é possível usar por exemplo numa RX 550, qnd vc for jogar alguns jogos realmente vc vai perceber ghosting, mas eu particularmente não me importei tanto com ghosting no Horizon zero Dawn que testei, mas no Red Dead 2, fica extremamente feio o ghosting
O LSFG utiliza apenas informação do espaço da tela para gerar os frames, a nvidia e amd utilizam informações de dentro do jogo para diminuir os artefatos e o input lag, ainda assim, é muito impressionante a qualidade que o LSFG consegue entregar, contando que seu fps esteja travado e estável em pelo menos 30 fps os artefatos são minimos e o input lag é quase nulo dependendo da configuração, e tem sim muitas vantagens se comparado com as outras tecnologias, como por exemplo a possibilidade de fazer upscaling, frame gen até 20x (o que é absurdo) e tudo isso pode ser utilizado em qualquer programa, inclusive em qualquer video
@@romaosnx eu sou chato pra caramba com isso kkkk ,eu percebi ghosting kkk , tanto que todo jogo que eu jogo ,eu manualmente troco o preset do Dlss pro "E" que praticamente não tem ghosting algum
@@Samuel-nj4vbsim , eu não estou dizendo que é horrível , eu mesmo uso em alguns jogos mais antigos , só estou dizendo que muita gente acaba sendo enganada achando que ele faz a mesma coisa que uma rtx 40 ou 50 faz ta ligado ? e não é nem de perto a mesma coisa ,
é tipo tu jogar um jogo VR naquele suporte de celular , e jogar um jogo VR num óculos VR de verdade ,o do celular é ruim? não ,mas não chega nem perto
Vc ta muito revoltado. Acalma rapaz, vc ta impossivel
pronto, começou, sabia que essa merda da nvidia iria dar nisso
Nice bait. Não deu pra levar a sério o vídeo
Opa ...saiu outra versao fo lol less
Eu usei essa
Placa rtx 5000 pra que? Kkkkk
Não precisa mais!
Na próxima vamos ativar afmf com lossless
@@IskandarSouza Pq não colocar o mod optiscaler mais o do LukyFz coloca todos 🤣
Comprei esse programa só que não sabia usar e desinstalei kkk agora sim
Kkkk
😂Não acabe com a ilusão do gado 😂
Delay n importa, coloca x1000 😂😂😂
Só pode esta zoando! comprei esse lixo de programa e joguei dinheiro fora! mais um canal pra bloquear!
Não soube configurar e já vem chorando igual criança.
então pela logica da nvidia, gastar 16 reais eu to comprando pra minha 3060 de 12 gigas,o desempenho de uma 5070...
o FPS que verás na serie 5000, sera parecido com o Lossless, FPS fake nere, kkkkk
Top
esse fps e falso
lançou video quando lançou a versão 3.0 kkkkkk
Não é essa que eu usei?
@IskandarSouza hoje lançou a versão 3.0 (eu uso a beta)
não gosto desse programa porque ele deixa muito ghost, eu não gosto nem do dlls muleta da disgraça kkkkkjjjj imagina essa gambiarra, eu ate comprei mas arrependi, o game ficou horroroso
Tive uma RX6700 era uma bost*
AMD em gráficas e mesmo uma bost.
Um adendo pra quem não conhece o Lossless:
O programa não dá fps.
Na verdade, tira fps e dá mais Hz (hertz)
Também intendi isso ,ele tira fps e " aumenta os htz " mais pra sentir isso o monitor tem que ser 120 ,144 !
Good
Para que usar esse programa sendo que no próprio driver da AMD tem esse recurso de gerador de frames 🧐
Quanto mais, melhor
Vamos usar ambos pra fazer um megazord de frame gen
@@IskandarSouza kkkkk que teste doido, manda bala.
@@IskandarSouza kkkkkk
Eita vídeo sem vergonha kk, e a cara de deboche dele durante o vídeo é a melhor kkkk
Kkkkkkkk
@@IskandarSouza Nvidia tremendo essa hora!