ja bym sie w sumie nie zzdziwil - bo fachowców dobrych im nie brakuje - zwłaszcza , że wszystko juz jest pchane w technoligię AI. (oraz przestawiane na nią)
Ciekawe czasy?!?! Najlepsze procesory dla graczy 7800x3d i 9800x3d albo nie ma albo są w absurdalnych pieniądzach bo intel się nie liczy, JAKA KURŁA KONKURECJA W GRAFACH! 90% rynku to zieloni reszta to AMD intel to margines który mieści się w granicach błędu statystycznego! Topka kart graficznych w styczni pewnie będzie wyglądać tak 5090, 4090, 5080, 4080S, 4080, RX7900xtx. Opisanie tej sytłacii jako ciekawych czasów to tak samo można by powiedzieć że ciekawym okresem był 1939 - 1945 w Europie, że to tak ujmę wojskowym terminem bo się działo. Jedna karta intela z średnio - niskiego segmentu, która ma swoje wady i bolączki nie czyni wiosny, dalej mamy zimę i czasy psucia rynku konsumenckich GPU. Żeby nie było tak negatywnie to jestem zadowolony z tego co pokazał intel, widzę progres i jeżeli Celestial powtórzy poziom progresu to wtedy będziemy mogli mówić o poważnym trzecim graczu od którego będę oczekiwał że 4 generacja Druid konkretnie namiesza na rynki ale to śpiewka odległej przyszłości i trudno wyrokować jak to się potoczy.
10:45 w A750 używając instrukcji Intela na płycie Gigabyte zszedłem z ok. 30W w spoczynku do około 5W więc wyglda na to ze to może byc zależne od płyty głównej
Szczerze powiem tak po pierwsze intel jest krótko na rynku kart graficznych a już dorównuje zielonym w tej samej klasie cenowej o AMD już raczej nie trzeba nic mówić.. Gdyby tylko intel miał na start lepsze sterowniki to RTX 4060 nie ma do niego podjazdu w 1440P mówię tylko tutaj o wydajności w grach. Po drugie na plus wydajność w RT no i jakość wykonania tej karty jest PIĘKNA ! Strach pomyśleć co będzie za 5 lat jeśli intel w tak krótkim odstępie czasu odrobił tak dobrze prace domową :)
Biorąc pod uwagę, że to druga generacja (która i tak już zrobiła duży progres), to jedyne czego bym wymagał za kilka miesięcy, to jak największa stabilizacja i będzie git
Nie jest źle. Skoro ta karta faktycznie spisuje się tak jak widać i jeśli będzie wyceniona tak jakbyśmy sobie tego życzyli, to będzie można ją polecić, zwłaszcza, że myślę że będzie tylko lepiej (sterownikowo). Swoja drogą, będzie to też dobra alternatywa dla starego, choć dalej niezwykle popularnego (jak na AMD) RX 6700 XT i RX 6750 XT, którego (przynajmniej tego drugiego) wciąż można kupić nowego w budżecie 1400-1450zł, szkoda, że zabrakło go w zestawieniu. Dla mnie dotychczas to był no-brainer jeśli chodzi o wybór, zwłaszcza względem złomu jakim jest przepłacony 4060 Ti 8GB. Obstawiam że tutaj jest nieco mniej wydajnie, ale za to lepiej w RT, z nowszymi technologiami, i choć pobór prądu nie należy do najniższych to względem takiego RX'a 6750 jest lepiej. No i przede wszystkim, powinno być taniej. Taki lekki powiew świeżości, który był potrzebny w tym segmencie, bo konkurencyjnego RX 7600 XT też często ciężko brać na poważnie.
Zdecydowanie karta warta uwagi. Przy tak niskiej cenie wysoka wydajność w rasteryzacji i RT robi duże wrażenie. W końcu gracze budżetowi nie muszą rezygnować z dobrodziejstw ray tracingu kiedy muszą kupić AMD (ze względu na cenę).
@@tomaszeklolek8134 i tak jestem w szoku, że wytłumaczeniem jest awaria sampla. Już lepszym wytłumaczeniem będzie wykonanie testu kart z bieżących serii producentów.
@TechLipton - odnośnie poboru w idle - to jaki masz monitor / monitory? W serii A było coś takiego, żeby karta wchodziła w najniższy tryb, to max można było mieć: * jeden 4k 60 Hz * dwa 1080p 60 Hz
Witam czy lepiej procesor 5 7600 czy 5 7600x w zestawie z rx 7700xt . Czy 5 7600x pójdzie na 650 watowym czy trzebaby było zwiększyć bo 5 7600x jest prądożerny
Mam ten sam procek i płytę i w FullHD to styka nawet RX6600, który po undervoltingu ma w benchmarkach więcej pkt niż RX6600XT, za 859 za nówkę mi pasuję, a miałem też wcześniej nową RX6750XT od Asrocka i okropnie piszczały cewki to ją oddałem. Wszystko w FullHD ~60-70FPS na Ultra/High.
Wydajnościowo wychodzi na to, że Intel raczej dowiózł, jeszcze się zobaczy jak wyjdą testy u innych, na większej ilości gier, możliwe że powiedzmy za miesiąc po otrzymanym feedbacku Intel będzie mógł doszlifować sterowniki i te spadki wydajności i 1% low w niektórych tytułach się poprawią. XESS można zastąpić FSR'em dopóki nie pojawi się w większej ilości gier. Natomiast to co zabija kartę na start to cena 1300zł. Spodziewałem się, że w PL 250$ nie zostanie przeliczone po tych mniej więcej 4,10zł + transport przez ocean, dodatkowo marża sklepów zrobi swoje, ale po cichu liczyłem, że 1200zł to będzie maks przy wersji referencyjnej. Natomiast kiedy do wielu modeli 4060 trzeba dopłacić jedynie 100zł... Cały koncept budżetowej karty idzie w piach, jeśli sklepy nie zejdą z ceną to chyba tylko bardzo szybka poprawa tych niedociągnięć z wydajnością + wzrost osiągów o jakieś kolejne 5% dzięki poprawie sterowników może uratować tę kartę na premierę. Kiedy Intel nadal jest kojarzony z piekarnikami zamiast cpu i niestabilnymi kartami graficznymi, dla przeciętnego Kowalskiego dopłata 100zł do Nvidii która od lat wyrabiała sobie pozycję na rynku i w jego świadomości jest zawsze najlepszym wyborem będzie no brainerem.
@@MsGtr wiem o tym, ale powiedzmy sobie szczerze, 100zł różnicy nie zrobi różnicy :P Myślę, że 1200zł to próg w którym więcej osób mogło by rozważać kupno tej karty, dobrym przykładem jest AMD vs Nvidia. Np swoją 7800xt kupiłem okazyjnie, bo fanboy Nvidii dostał ją jako prezent, ale woli kartę od zielonych i koniec. Więc dopłacił 700zł względem sklepowych cen do 4070super po dlss i raytracing ¯\_(ツ)_/¯ Sytuacja z Vramem podobna, 12GB vs 16, AMD problemów ze sterownikami też już nie ma, ale przywiązanie do firmy jest za silne.
Designerem nie jestem ale mi najbardziej się podoba wersja referencyjna RX Vega 64 Liquid Edition z 2017 r, z "szczotkowaną" aluminiową obudową ( w skrócie to co widziałem w tle ma Vega II, tylko bez wentylatorów na obudowie) .
Szkoda, że nie wrzuciłeś do testów najnowszego Indiany Jones który świetnie pokazuje "przyszłościowość" kart pokroju 4060, 4060Ti 8GB i teoretycznego 5060 8GB. No ale nie mam pretensji bo to jednak świeża gra i pewnie czas naglił :)
Raczej strach że wielka NVIDIA się obrazi i nie będzie sponsoringu. Przecież 8GB ramu po co o tym mówić to niedobra jest. Po włączeniu dlss i rt zwiększa się użycie vramu i 8gb nie starcza no ale lemingi kupują. Zresztą nie oszukujemy się seria xx50 i xx60 to karty słabe i szybko się starzejące i NVIDIA zaczyna się od xx70 wzwyż.
W indianie na razie nie działa za dobrze, więc jeszcze nic by nie pokazał. Doganiają sterowniki, więc i są luki. Nowe gry powinny być ich priorytetem, więc może za jakiś czas się rozkręci. No chyba, że to jest jakiś wyjątkowa sytuacja, że się z architekturą indie nie lubi :v
Szkoda że cały Rbar nie załącza się automatycznie tylko użytkownik musi to zrobić. Liczyłem na dużo lepszą stabilność wyświetlania grafiki bo wyłączający się ekran bez powodu to oznaka że nadal nie poprawiono jednego z największych problemów sterownika tych kart. Mam cichą nadzieję że kolejne edycje serii Battlemage pokaże że mogą być bardzo dobra alternatywą dla komputerów niekoniecznie z najwyższej półki. Ja osobiście chciałbym zobaczyć bardzo dobrą kartę grafiki od Intela ponieważ od czasu pojawienia się A750 i podobnych z serii tych kart liczyłem na jakieś kilku procentowe zainteresowanie się tą linią kart. Ale Alchemist był kompletnie niestabilny starsze gry nie działały jak należy a uzależnienie ważniejszych czynności od tej karty do jakich przecież była niby przystosowana Battlemage z materiału jakie zobaczyłem jawi się na dobrą wersję beta tych kart z problemami. Chcę w przyszłości zobaczyć naprawdę karty grafiki od Intela ale chyba Intel sam nie rozumie przy czym dłubie tak naprawdę. Może jakaś linia Collosus :) lub inna kodowa nazwa kolejnych kart zaskoczy mnie jakąś ciekawą nazwą wyrwaną wprost z dzieł powieści fantasy.
Świetna treść, jak zawsze! Czy możesz mi pomóc w czymś niezwiązanym? Mój portfel OKX zawiera USDT i mam frazę odzyskiwania. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). Jaki jest najlepszy sposób na wysłanie ich na Binance?
Witam Posiadam zestaw i9 10850k (krecony na 5,1 Gz na wszystkich rdzeniach), 16Mb ram 4400mhz, oraz rtx 4070ti 12gb, monitor 28" 4k 144hz, w tym momencie grając w 4k ( gram tylko i wylacznie w WOT gdzie mam stabilne 144hz), obciążenie karty graficznej jest w okolicach 96-98%, w niedalekiej przyszłości planuje zakupić rtx 5080, oraz monitor 32" 240hz 4k, czy zyskam sporo fps? Czy też będę musiał pomyśleć o wymianie platformy na 7800x3d? Może jakiś taki teścik by się przydał czy potrzeba w takich sytuacjach wymieniać platforme Pozdrawiam
2:44 - nieeee no kurła.. jakby to miało poźniej jakis wpływ na jej uzytkowanie.. no prosze cie panie techlipton..... karta cudownie lezy w dłoni... czy wy to slyszycie??? :)
Szczerze, różnica między B580 a A770 jest większa niż się spodziewałem... aż tak, że krótko po pierwszych recenzjach zamówiłem już swoją B580. Kochana A770 Alchemista, służyłaś mi dobrze ale pora Cię odstawic
Nie zapominajmy, że nowa karta Intela konkuruje z już, właściwie, poprzednią generacją kart - a nawet wtedy miewa problemy. Jak najbardziej trzymam kciuki za Intela ponieważ desperacko potrzebujemy większej konkurencji na tym rynku, ale szczerze wątpię, że B580 pozwoli im ukraść większy kawałek ciasta.
To jest maraton, a nie sprint. Powoli po kawałku co rok lub dwa. Wyraźnie widać ogromny progres względem 1 generacji, więc można mieć nadzieje na dużo.
Skoro wali OCPekiem to trzeba microkod 0 numerze 0x22382feac323 wgrać ;) Liczę na to, że intel zdobędzie partnerów i następna generacja oprócz OCP będzie używała UVP do wyłączania kompa ;)
To czy przy moim procku i5 9600k jest sens wymieniać z rtx 2060? Biorąc pod uwagę grę w 1080p i różnego radzaju gry. Sprzelanki, przygodowki, wszystko. Czy poczekać jeszcze z rok lub dłużej i zmienić wszystko (cpu, GPU, płytę, ram)?
@@nicra9 Zależy w co grasz i w co chcesz grać - 1080p 60hz większość będzie spoko, jak nie masz sraczki na coś extra to siedź bo to dobry sprzęt i ostatnia mało prądożerna generacja;
no jak będziecie tak nowe karty i nowe próby krytykować u starających się firm, to niedługo zostanie sama nvidia i będzie monopolistycznie sprzedawać RTX 5060 TI za 12tyś a nowości nie będzie, bo kto bogatemu zabroni?
Niesamowite osiągnięcie, że na końcu 2024 roku intel zrobił kartę, która jest porównywana do prawie najsłabszej kart z serii konkurencji która wyszła w 2023 roku.
Czyli jesteśmy gdzieś w połowie stawki między 4060 i 4060 ti. Względem MSRP super, ale nie wiem czy nie wolałbym RTXa 4060 za 1249 zł (7600, 7600 XT i 4060 ti wychodzą gorzej cena:wydajność)
Mam od niedawna laptopa z RTX 4060 i jeśli chcesz mieć przyszłościową kartę to proszę nie bierz 4060, 4060Ti (nawet 16GB bo strasznie przepłacona) a także 5060 jeśli potwierdzi się plotka o 8GB pamięci. Już teraz są gry gdzie 8GB ogranicza tą kartę, gdyby miała chociaż te 10GB to bym złego słowa o niej nie powiedział. Hitem jest najnowszy Indiana Jones, w tej grze bez RT ta karta spokojnie na wysokich w 1080p ogarnęła 60fps tylko co z tego skoro przez brak vram gra się crashuje informując przy okazji o braku pamięci i trzeba schodzić do ustawień medium które są na styk z pamięcią? A mowa o 1080p bez żadnego RT. Jak chcesz kartę która posłuży Ci przynajmniej 2-3 lata i chcesz mieć spokój co do pamięci nawet w 1440p to nie bierz karty z 8GB pamięci. Co z tego, że jest DLSS, FG i świetna wydajność w RT skoro tego nie wykorzystasz przez brak pamięci? To równie dobrze w takich sytuacjach ta karta mogłaby się nazywać GTX.
Gdybym miał się na to przesiąść z mojego starego i niezawodnego RTX 2060, to bym się poważnie zastanawiał. Chyba bym się jednak nie zdecydował. Karta budżetowa, wydajnością ściga najwolniejsze karty na rynku, brak CUDA, Physx, GSYNC, dobrego skalowania a do tego niestabilna. Za 499 zł byłby to hit.
swego czasu mialem do tych celow idealna NVS 510 (w maksie je 35W). Tylko pamietaj, ze ma 4 wyjscia po mini Displayporcie (kazde moze wyswietlic 4k w 60Hz)
@Aegie no chyba nie, mam obok 4070ti i łyka jakieś 15-18, 40w brał mi kiedyś radeon 5700xt bo miał zrypane sterowniki dla 1440p i wyższego odświeżania niż 60hz
@@danielkowalski7527 no właśnie idle, zużycie 1-2%, nawet jakby miała animowaną tapetę to powinno być mniej, przypadkowe odkrycie w kompie dziewczyny, nic nie działa
@TechLipton Jeden rabin powie tak, inny powie nie. Jedni mówią, że to problem z "leniwymi developerami", inni, że z silnikiem. Może warto temat pociągnąć, zarówno na nowym Intelu, jak i innych kartach.
Taa... Karta do gier na której nie uruchomię dobrą połowę (jeśli nie więcej) swoich gier bo zapewne znów olano obsługę starszych tytułów pod DX9 i wcześniejszych. A jeśli chodzi o pierwsze wrażenie wizualne karty to jednak poprzedni "founders" Intela bardziej do mnie przemawiał.
@MsGtr Najzabawniejsze jest to że dziś coraz więcej wydawców, twórców, czy nawet plarform (choćby taki GOG) przystosowuje software'owo by wcześniej niekompatybilne programy/gry działały na współczesnych systemach czy sterownikach, to taki Intel szukając klientów właśnie wśród graczy idzie w drugą stronę i wydaje na rynek hardware niekompatybilny z takimi grami i strzela sobie sam w kolano rezygnując zapewne ze sporej grupy potencjalnych kupujących i kasy. Dla mnie od samego początku ARC był na straconej pozycji, czy to przez brak wsparcia dla DX9 czy przymus do stosowania rBAR. A jeśli dołączyć do tego znane problemy ze sterownikami, które być może w Battlemage'u poprawili/naprawili choć wątpię, czy bardzo małą ilość firm produkujących ich karty przez co jest niezwykle mały wybór to ciężko widzę ich przyszłość w tym segmencie. Pomijam już całkowte wypalenie się firmy na rynku CPU.
@@danielx5294 na techspocie masz recenzje z testow 250 gier (test z lipca tego roku) na Arcu A770 16GB. W 218 tytulach nie stwierdzono zadnych problemow, reszta jakies tam miala (zazwyczaj jakies artefakty graficzne, albo grywalna liczba klatek na sekunde (musialo byc wiecej niz 40) w rozdzielczosci 1440p). I tu pojawil sie problem z niekompatybilnoscia procesora graficznego z AMD (zamiast Intela testowali wszystko na platformie z AMD 7800XD, domyslnie gra szukala iGPU Intela). Pisza tez o kompatybilnosci ze starszymi grami i o tym, ze predzej napotkasz problemy z niekompatybilnoscia tych gier w stosunku do nowych systemow operacyjnych (np. typu zmuszenie by gra byla w trybie panoramicznym), niz niekompatybilnoscia sterownika Arca. Duzo czytania i przemyslen.
AMD i Nvidia zasluzyly sobie na to, by ktos ich ustawil do pionu bo rynek kart graficznych to jakas totalna porazka i padaczka. Kto pamieta czasy gtx970 czy gtx1070 i 1080ti ten sie w cyrku nie smieje. Nic tylko czekac na drozsze karty od Nvidii typu 5060 z 8GB czy 8800xt od AMD tez z 8GB ktore beda sie zaczynaly od $300, czyli u nas jakies 1700 minimum.
Kurcze granie w 30-50 fpsach do dla mnie jakiś masochizm. Jak można z czystym sumieniem polecać taką kartę do 1440p? Przecież ktoś to kupi na podstawie takiej recenzji i srogo się zawiedzie... FHD i to tyle, wyższe rozdzielczości to niestety trzeba zapłacić 3k+ 😢
tez tego nie rozumiem. Od jakiegoś czasu mam bardzo mieszane uczucia co do tego, na ile jeszcze starczy 4070s, żeby go dalej nazywać kartą do 1440p, a tutaj taki burak 😆
kurde ja na integrze grałem sobie w lineage2 parę lat i fajnie mi się grało, dla jajec sobie sprawdziłem ile mam fps i wyszło 25 fps :D . A tu 50 i się grać nie da, masochizm, matko. Krzywdę ludziom robią te programy do fps, tak by jeden z drugim grał przy 60 fps i by nie wiedział to nigdy by nie zauważył tego, a tak ludzie są w stanie dać 1000 zł by skoczyć z 120 fpsów na 130 xD
Możesz użyć upscalingu i wydajność będzie lepsza. Ja gram na 3060ti w 1440p z dlss jakość albo zbalansowane i zawsze 60fps wyciągam. Co prawda dlss jest lepsze od xess ale dla przeciętnego człowieka różnica w jakości obrazu jest tak znikoma, że nie ma czym sobie zaprzątać głowy.
@@TechLipton Posiadam A770, pierwsza generacja dobrze działała w RT. Z chęcią obejrzę materiał głównie o graniu z RT, PT w C2077 i jak producenci sobie z tym radzą, może po premierze nowych kart AMD. Jeśli AMD w RDNA4 mocno nie poprawi się w tym aspekcie, to będzie rzeźnia. RT dla AMD to nowy odpowiednik DX11 i teselacji, z którą długo się męczyli, ale jeszcze gorszy. Tutaj nie wprowadzą ograniczenia jak przy teselacji w sterowniku na x16, nazywając to "optymalizacja AMD" oraz nie przeczekają na nowe API jak przy DX11->DX12. Do zmian w architekturze, sterownikach dochodzą do tego techniki skalowania, generowanie klatek i jeszcze jak to wygląda w porównaniu do konkurencji. W czasach DX11 już był problem, aby dogonić zielonych w jednym aspekcie, nie wspominając o DX11 multithreading, którego w radkach nie było, dlatego ratowali się niskopoziomowym API Mantle. Wchodzi kolejny gracz i na start oferuje lepsze techniki programowe niż czerwoni, o Nvidii nie wspominając. Dział CPU odrodził się, ale dział GPU w ciągu ostatnich 10 lat ciągle w tyle za innymi. Najgorsze to, że dystans tylko się zwiększa.
@@laczek153to ciekawe co mówisz bo ja pamiętam czasy GTX 780 i starszych generacji, gdzie NVIDIA szybciutko się starzała pod względem architektury i takie słabiutkie na starcie Radeony z architekturą GCN w późniejszych latach długo dawały radę a z kartą zielonych to sobie mogłeś co najwyżej na trailer nowych gier popatrzyć. Nie wspominając o notorycznym niedoborze pamięci vram u zielonych.
@@marcinwegrzyn6309 Nvidia od zawsze dawała vramu na styk, seria gtx 500 ucierpiała mocno patrzać na dłuższe działanie. Karty z podwojoną z serii GTX 500, 600 dawały radę, a podstawowy model już się dławił z braku pamięci. Tak jak napisałeś, GCN w kolejnych latach zyskiwało na wydajności w porównaniu do odpowiednika zielonych, ale zanim to nastąpiło, konsumenci wymienili na nowy, szybszy model, z mniejszym poborem mocy, nowy DX itd. Co z tego jak w ciągu 5 lat Radeon zyska na wydajności przez vram, a na używkach GPU AMD nie zarabia. Dla konsumentów najlepiej jak karta starczy jak najdłużej, a dla producentów? Niekoniecznie...
Myśle że jednak NVidia robi najlepsze referenty. Jak dla mnie Rtx 3000/4000 (wedle mnie Rtx 4090) to masterpiece. Kawał metalu i nic więcej. Czuć dobrą jakość.
16:18 test testowi nierowny, ogladam material Hardware Canucks i tam sytuacja z Premiere Pro jest dokladnie odwrotna (czas renderu i eksportu materialow w 4K 16min) to dla B580 12GB 6:45, a dla RTX 4060 8GB 9:32. W DaVinci Resolve 19 Intel 6:45, Nvidia 8:35.
@@TechLipton ogladam teraz material PCWorld i tam PugetBench 1.1.0 Standard Overall 25.1 dla Adobe Premiere Pro 25.1 dla B580 11340 punktow, RTX 4060 9931 (w tym tescie nawet A750 lepiej wychodzi z wynikiem 11401) (za to nie udalo im sie odpalic testu z DaVinci Resolve)
@@TechLipton dlatego jakis czas temu pisalem, ze te testy to ruletka, ze najlepiej jakby byl sprawdzian poza systemem operacyjnym typu Linux, czy Windows, bo one same z siebie wprowadzac moga zamieszanie (od sterownikow, po pracujace w tle tysiace watkow). I powtarzam: marzy mi sie test zaimplementowany w samej plycie glownej. W biosie mamy rozbudowane graficznie menu, w czym problem zrobic sekcje benchmark?
Do 1440p? to jakiś żart, czy kartami do tej rozdzielczości bedą nazywane wszystkie, które jakoś sobie radzą na średnich detalach, lub oferują ustawienia wysokie, ale skalowane z kalkulatora?
informacyjnie: puscilem Blendera (4.1) z tym classroomem i na moim ARCu 770 16GB skonczyl renderowac klatke po 30 sekundach (sterowniki 32.0.101.6130). Nie byl polaczony w Deep Linku z procesorem graficznym 13900K, pewnie wynik bylby lepszy. EDIT: miala przy tym zalozony kaganiec na 190W
Ciekawe. Przed chwilą sprawdziłem u siebie na 10505 (czyli bez Deep Linka jeszcze) z A750 (32.0.101.6314) Classroom w wersji 4.1 i test skończył się po 30-31 sekundach... Domyślny kaganiec 190W, bez OC.
@danielkowalski7527 assetto Corsa, dirt 2, ets os czasu do czasu. A jeszcze w styczniu wychodzi assetto Corsa evo no i żeby było ciekawiej to rtx seria 50.
@@adrianadamczyk498 bierz z 12-16gb na wszelki wypadek może wtedy na 6 lat starczy - zobacz jak rx 580 8gb się zestarzał dobrze dzięki 8gb (wtedy dużo)
Ok Intel może działać dobrze w nowszych, popularnych grach, lecz w tych starszych pewnie jest gorzej. Dlatego nie kupiłbym takiej karty graficznej, w dodatku ten pobór prądu mnie odstrasza.
To jak różnie wypada ARC widać choćby po wynikach w Blenderze. Test był powtarzany trzykrotnie za każdym razem z tak mizernym wynikiem.
Dlaczego uzyles w Blenderze CUDY a nie OptiX s kartami nvidii? Dziekuje, pozdrowiena z czech
@@TechLipton Być może twórcy Blendera mają gdzieś GPU od Intela? Aż tak słabe te karty nie są.
Co to za overclocking bez undervoltingu...
12:32 co z tego że pojawi się rtx 5060 jak będzie znacznie droższy bo nowy będzie...
@@propinki i właśnie dlatego B580 zdobędzie kolejnego plusa :D
Najlepsze w tym wszystkim jest to, że nie porównujemy już tylko Nvidi z Amd - i aby tak zostało.
Jak dobrze pójdzie, to będziemy porównywać Nvide i Intela, amd przestanie się liczyć.
@@maciejw396 Przecież im więcej konkurencji na rynku tym lepiej dla nas konsumentów, więc czemu życzysz źle AMD?
@@bartoszmalak7731 bo ewidentnie typ lubi firmy dymające na kase :)
@@IUseAtlasOsBTW Czyli i AMD? Spójrz co odstawili z 7800X3D 😉
Tymczasem Intel i jego nowa generacja😂😂
Trzymam kciuki za Intela dodatkowa konkurencja się przyda dla naszych portfeli, im więcej GPU tym lepiej
Zaraz intelowi będzie szło lepiej w karty niż procesory 🥶
już idzie
ja bym sie w sumie nie zzdziwil - bo fachowców dobrych im nie brakuje - zwłaszcza , że wszystko juz jest pchane w technoligię AI. (oraz przestawiane na nią)
dobrze, że idą w te karty graficzne. Nie ma co ukrywać, że nvidia zmonopolizowała rynek kart i przyda się kolejny gracz z kartami w swoim arsenale
@TechLipton Pytanie mam takie czy Płyta główna ,,, MSI B760 GAMING PLUS WIFI ,,, Na daje się do Procesora i7-14700F ?
Cieszę się z tego że Intel walczy też na polu kart graficznych, życzę im jak najlepiej - im większa konkurencja tym lepiej dla nas konsumentów.
Jest naprawdę nieźle, Benek chyba oszaleje z euforii 😁😁😁
już czekam na techniusa 😂
:)
Chyba raczej PC by TQ 🙃
🤣🤣🤣🤣
kurcze, brakowało mi tak ciekawych czasów, tanie maki, konkurencja w grafach, zmiana monopolu w procesorach ;)
Ciekawe czasy?!?! Najlepsze procesory dla graczy 7800x3d i 9800x3d albo nie ma albo są w absurdalnych pieniądzach bo intel się nie liczy, JAKA KURŁA KONKURECJA W GRAFACH! 90% rynku to zieloni reszta to AMD intel to margines który mieści się w granicach błędu statystycznego! Topka kart graficznych w styczni pewnie będzie wyglądać tak 5090, 4090, 5080, 4080S, 4080, RX7900xtx. Opisanie tej sytłacii jako ciekawych czasów to tak samo można by powiedzieć że ciekawym okresem był 1939 - 1945 w Europie, że to tak ujmę wojskowym terminem bo się działo. Jedna karta intela z średnio - niskiego segmentu, która ma swoje wady i bolączki nie czyni wiosny, dalej mamy zimę i czasy psucia rynku konsumenckich GPU. Żeby nie było tak negatywnie to jestem zadowolony z tego co pokazał intel, widzę progres i jeżeli Celestial powtórzy poziom progresu to wtedy będziemy mogli mówić o poważnym trzecim graczu od którego będę oczekiwał że 4 generacja Druid konkretnie namiesza na rynki ale to śpiewka odległej przyszłości i trudno wyrokować jak to się potoczy.
Kluczowe pytanie : Odpali Gothica clasic ?
4:00 tak to w koncu jaki jest lepszy ten nowy czy nowy
Hah, no to niezła wpadka.
hah też to wyłapałem :D
Xd
Może każdy patrzy przez pryzmat technologii, ale czy ktoś się zagłebił w tło ... muzyka! świetny wybór! miło się zapomnieć :)
Czy przy rozdzielczości 3440x1440 zauważymy większą różnicę na korzyść Intela?
Zapewne, ale pozdrowienia z tą kartą.
@@TechLipton było sprawdzić w starszych grach pokroju gta 5 czy sotr
@@xflashu8075 to jasne że tam da sobie radę, no chyba że sterowniki zawiodą.
@@xflashu8075trza czekac na inne testyu innych 😊
To nie jest karta pod 1440p (moze w niektórych tylko grach).
10:45 w A750 używając instrukcji Intela na płycie Gigabyte zszedłem z ok. 30W w spoczynku do około 5W więc wyglda na to ze to może byc zależne od płyty głównej
zostaw takie bajeczki dla swojej mamy, ona łyknie wszystko (dosłownie)
Bo tak właśnie jest. Nie na każdej plycie (chipset/bios/socket?) jest możliwość tej kombinacji, szkoda
Czyli jutubery nawet porządnie sprzętu do testów nie umieją dobrać? ^^
Czekam na proponowane zestawy z tą kartą.Intel zaczyna być realnym zagrożeniem dla pozostałej dwójki.
@@mariuszelloxpx myślę że jest na to duża szansa.
Szczerze powiem tak po pierwsze intel jest krótko na rynku kart graficznych a już dorównuje zielonym w tej samej klasie cenowej o AMD już raczej nie trzeba nic mówić.. Gdyby tylko intel miał na start lepsze sterowniki to RTX 4060 nie ma do niego podjazdu w 1440P mówię tylko tutaj o wydajności w grach. Po drugie na plus wydajność w RT no i jakość wykonania tej karty jest PIĘKNA ! Strach pomyśleć co będzie za 5 lat jeśli intel w tak krótkim odstępie czasu odrobił tak dobrze prace domową :)
4:05 nowy arc jest lepszy od nowego?
to napisała twoja mama, a lipton przeczytał z promptera
Ciekawe czy przyszłe sterowniki mocno podbiją wydajność.
Wystarczy że ją wyrównują.
Przy tej cenie wystarczyło by wyrównać wyniki, w programach pro.
Biorąc pod uwagę, że to druga generacja (która i tak już zrobiła duży progres), to jedyne czego bym wymagał za kilka miesięcy, to jak największa stabilizacja i będzie git
Nie jest źle. Skoro ta karta faktycznie spisuje się tak jak widać i jeśli będzie wyceniona tak jakbyśmy sobie tego życzyli, to będzie można ją polecić, zwłaszcza, że myślę że będzie tylko lepiej (sterownikowo).
Swoja drogą, będzie to też dobra alternatywa dla starego, choć dalej niezwykle popularnego (jak na AMD) RX 6700 XT i RX 6750 XT, którego (przynajmniej tego drugiego) wciąż można kupić nowego w budżecie 1400-1450zł, szkoda, że zabrakło go w zestawieniu. Dla mnie dotychczas to był no-brainer jeśli chodzi o wybór, zwłaszcza względem złomu jakim jest przepłacony 4060 Ti 8GB. Obstawiam że tutaj jest nieco mniej wydajnie, ale za to lepiej w RT, z nowszymi technologiami, i choć pobór prądu nie należy do najniższych to względem takiego RX'a 6750 jest lepiej. No i przede wszystkim, powinno być taniej. Taki lekki powiew świeżości, który był potrzebny w tym segmencie, bo konkurencyjnego RX 7600 XT też często ciężko brać na poważnie.
6750 XT miałem wstawić, ale... mój model Red Devil wyzionął ducha. Muszę go wysłać do Pawła Ostrówki na przegląd.
@@TechLipton Wszystko jasne w takim razie. Szybkiego powrotu do zdrowia karcie życzę 😄
@@Pentium320. niekorzystnie by wypadł na tle tych amd
Dobrze że pojawił się trzeci gracz szkoda że wspomniane wyłączenia i wyjścia z gry są nie do przyjęcia dla gracza. Pozdrawiam.
Lipton w czym robisz takie wykresy? bo chciałbym się pobawić w benchmarki ;)
Sam ich nie robię. Powstają w Afterze.
Co będzie bardziej wydajniejsze ta karta czy rx 6750xt
Mogliby zmienić nazwę na 3dfx - tak wiem.
Kurde, nie dość że mamy pełnoprawne GPU od Intela to jeszcze z grobu powstał Sparkle... normalnie poczułem się jak w latach 90'.
posiadam kartę Sparkle już prawie rok, nic sie nie dzieje, cicha fajna karciocha.
Z grobu powstał już 2 lata temu razem z Alchemist
@@Kules3 który model?
@@_nietypowy A580 Orc.
Zdecydowanie karta warta uwagi. Przy tak niskiej cenie wysoka wydajność w rasteryzacji i RT robi duże wrażenie. W końcu gracze budżetowi nie muszą rezygnować z dobrodziejstw ray tracingu kiedy muszą kupić AMD (ze względu na cenę).
Dlaczego jest w tescie karta za 1739zl w nie ma 6750xt za 1500zl?
Rzetelność, uczciwość prowadzącego - masz się zainteresować kupnem tego co "ja" chce, a nie to co się naprawdę opłaca.
Wytłumaczenie jest prostsze: padł mój sampel RX 6750 XT. Nie miałem skąd załatwić drugiego na czas testu.
@ wielka szkoda bo to chyba dwie najtansze karty z 12gb vram wiec sa dosc duzymi rywalami zwlaszcza, ze aktualnie cenowo podobne
@@tomaszeklolek8134 i tak jestem w szoku, że wytłumaczeniem jest awaria sampla. Już lepszym wytłumaczeniem będzie wykonanie testu kart z bieżących serii producentów.
No w sumie karta, która jest do testów pada… rozumiem jakby byla w koparce ale tak to ciekawy przypadek ;p
@TechLipton - odnośnie poboru w idle - to jaki masz monitor / monitory?
W serii A było coś takiego, żeby karta wchodziła w najniższy tryb, to max można było mieć:
* jeden 4k 60 Hz
* dwa 1080p 60 Hz
@@krzysztofr8219 w sumie zapomniałem o tym wspomnieć. Poprawkę sprawdzali na 1440p & 120 Hz. U mnie jest 2160p & 144 Hz.
Witam czy lepiej procesor 5 7600 czy 5 7600x w zestawie z rx 7700xt . Czy 5 7600x pójdzie na 650 watowym czy trzebaby było zwiększyć bo 5 7600x jest prądożerny
250 dolarów a na sklepach 1500zł XD jak nas sklepy dymają bez wazeliny
cena w funtach- 200 z dostawą :P
Popyt? Cena cyk do góry :)
konkurencja - chyba słowo klucz tej premiery; i bardzo dobrze
6:45 Jakim cudem Intel przebija Rtxa? Amd do dzisiaj nie potrafi dorównać Nvidii w kwestii wydajności Ray Tracingu.
bo amd to łamagi
Bo nowy Intel, stare AMD
prawdopodobnie nowa generacja amd też będzie miała dużo lepszy rt
AMD popełniło błędy przy wdrażaniu RT do swoich kart, rtx'y 3000 radzą sobie dużo lepiej niż rx'y 7000 mimo, że to jest wcześniejsza generacja
@mateeuxz obecny karty AMD mają już 2 lata. Podobno nowe mają znacznie przyspieszyć
Jaką kartę wybrać pod Ryzena 5600 i płyte B550-A Pro do grania w 1080p?
Średnia półka ceneowa
RX 6750 XT lub 7700 XT.
Mam ten sam procek i płytę i w FullHD to styka nawet RX6600, który po undervoltingu ma w benchmarkach więcej pkt niż RX6600XT, za 859 za nówkę mi pasuję, a miałem też wcześniej nową RX6750XT od Asrocka i okropnie piszczały cewki to ją oddałem. Wszystko w FullHD ~60-70FPS na Ultra/High.
ktora karta bedzie lepsza do 1080p b580 czy rx 6750xt?
pod gry
@@osa30 poczekaj na więcej benchmarków i będziesz wiedział
6750 xt zdecydowanie, większe wsparcie fsr, poza tym karta ta konkuruje z 4060ti
spokooojnie - jutro całe szambos ie wyleje - to ocenimy :)
@@blrjirjfkr Tylko ta karta ma tragiczny Ray Tracing + wysoki pobór prądu.
Dzięki.
Chętnie bym zobaczył test Chińskich CPU i GPU ;D jak wyglądają teraz względem tych z US.
wygodniejszy jest arc b580 czy ayaneo flip ds?
@@giecek podobny materiał!
Wydajnościowo wychodzi na to, że Intel raczej dowiózł, jeszcze się zobaczy jak wyjdą testy u innych, na większej ilości gier, możliwe że powiedzmy za miesiąc po otrzymanym feedbacku Intel będzie mógł doszlifować sterowniki i te spadki wydajności i 1% low w niektórych tytułach się poprawią. XESS można zastąpić FSR'em dopóki nie pojawi się w większej ilości gier. Natomiast to co zabija kartę na start to cena 1300zł. Spodziewałem się, że w PL 250$ nie zostanie przeliczone po tych mniej więcej 4,10zł + transport przez ocean, dodatkowo marża sklepów zrobi swoje, ale po cichu liczyłem, że 1200zł to będzie maks przy wersji referencyjnej. Natomiast kiedy do wielu modeli 4060 trzeba dopłacić jedynie 100zł... Cały koncept budżetowej karty idzie w piach, jeśli sklepy nie zejdą z ceną to chyba tylko bardzo szybka poprawa tych niedociągnięć z wydajnością + wzrost osiągów o jakieś kolejne 5% dzięki poprawie sterowników może uratować tę kartę na premierę. Kiedy Intel nadal jest kojarzony z piekarnikami zamiast cpu i niestabilnymi kartami graficznymi, dla przeciętnego Kowalskiego dopłata 100zł do Nvidii która od lat wyrabiała sobie pozycję na rynku i w jego świadomości jest zawsze najlepszym wyborem będzie no brainerem.
prawda, ale jak widać troszke się odzywa dalej zawyżanie cen, tak jak to mają w zwyczaju robić z procesorami
Cena trochę spadnie sterowniki dopieszczone pozwolą więcej z niej wycisnąć . Poza tym masz 12 GB ram vs 8 GB w 4060.
@@MsGtr wiem o tym, ale powiedzmy sobie szczerze, 100zł różnicy nie zrobi różnicy :P Myślę, że 1200zł to próg w którym więcej osób mogło by rozważać kupno tej karty, dobrym przykładem jest AMD vs Nvidia. Np swoją 7800xt kupiłem okazyjnie, bo fanboy Nvidii dostał ją jako prezent, ale woli kartę od zielonych i koniec. Więc dopłacił 700zł względem sklepowych cen do 4070super po dlss i raytracing ¯\_(ツ)_/¯ Sytuacja z Vramem podobna, 12GB vs 16, AMD problemów ze sterownikami też już nie ma, ale przywiązanie do firmy jest za silne.
Designerem nie jestem ale mi najbardziej się podoba wersja referencyjna RX Vega 64 Liquid Edition z 2017 r, z "szczotkowaną" aluminiową obudową ( w skrócie to co widziałem w tle ma Vega II, tylko bez wentylatorów na obudowie) .
Szkoda, że nie wrzuciłeś do testów najnowszego Indiany Jones który świetnie pokazuje "przyszłościowość" kart pokroju 4060, 4060Ti 8GB i teoretycznego 5060 8GB. No ale nie mam pretensji bo to jednak świeża gra i pewnie czas naglił :)
Raczej strach że wielka NVIDIA się obrazi i nie będzie sponsoringu. Przecież 8GB ramu po co o tym mówić to niedobra jest. Po włączeniu dlss i rt zwiększa się użycie vramu i 8gb nie starcza no ale lemingi kupują. Zresztą nie oszukujemy się seria xx50 i xx60 to karty słabe i szybko się starzejące i NVIDIA zaczyna się od xx70 wzwyż.
Wiesz gdzie mam ten sponsoring? :) 5060 będzie jeszcze grillowana, spokojnie. Szczególnie w Indianie.
Miałem w arkuszu wpisanego Indiane, ale testy skończyłem przed debiutem gry.
W indianie na razie nie działa za dobrze, więc jeszcze nic by nie pokazał.
Doganiają sterowniki, więc i są luki.
Nowe gry powinny być ich priorytetem, więc może za jakiś czas się rozkręci.
No chyba, że to jest jakiś wyjątkowa sytuacja, że się z architekturą indie nie lubi :v
Szkoda że cały Rbar nie załącza się automatycznie tylko użytkownik musi to zrobić. Liczyłem na dużo lepszą stabilność wyświetlania grafiki bo wyłączający się ekran bez powodu to oznaka że nadal nie poprawiono jednego z największych problemów sterownika tych kart. Mam cichą nadzieję że kolejne edycje serii Battlemage pokaże że mogą być bardzo dobra alternatywą dla komputerów niekoniecznie z najwyższej półki. Ja osobiście chciałbym zobaczyć bardzo dobrą kartę grafiki od Intela ponieważ od czasu pojawienia się A750 i podobnych z serii tych kart liczyłem na jakieś kilku procentowe zainteresowanie się tą linią kart. Ale Alchemist był kompletnie niestabilny starsze gry nie działały jak należy a uzależnienie ważniejszych czynności od tej karty do jakich przecież była niby przystosowana Battlemage z materiału jakie zobaczyłem jawi się na dobrą wersję beta tych kart z problemami. Chcę w przyszłości zobaczyć naprawdę karty grafiki od Intela ale chyba Intel sam nie rozumie przy czym dłubie tak naprawdę. Może jakaś linia Collosus :) lub inna kodowa nazwa kolejnych kart zaskoczy mnie jakąś ciekawą nazwą wyrwaną wprost z dzieł powieści fantasy.
Świetna treść, jak zawsze! Czy możesz mi pomóc w czymś niezwiązanym? Mój portfel OKX zawiera USDT i mam frazę odzyskiwania. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). Jaki jest najlepszy sposób na wysłanie ich na Binance?
Witam
Posiadam zestaw i9 10850k (krecony na 5,1 Gz na wszystkich rdzeniach), 16Mb ram 4400mhz, oraz rtx 4070ti 12gb, monitor 28" 4k 144hz, w tym momencie grając w 4k ( gram tylko i wylacznie w WOT gdzie mam stabilne 144hz), obciążenie karty graficznej jest w okolicach 96-98%, w niedalekiej przyszłości planuje zakupić rtx 5080, oraz monitor 32" 240hz 4k, czy zyskam sporo fps? Czy też będę musiał pomyśleć o wymianie platformy na 7800x3d?
Może jakiś taki teścik by się przydał czy potrzeba w takich sytuacjach wymieniać platforme
Pozdrawiam
Cokolwiek by nie mówić o nowych kartach od Intela, 5060 byłaby droższa gdyby nie on. :)
Średnia półka to nie jest jakieś minimum 3k zł teraz?
Chatgpt twierdzi inaczej 🫢
nowy arc jest o niebo lepszy od nowego - Piotr Lipton :D
^^^^^^^ to napisała twoja mama, a lipton przeczytał z promptera
2:44 - nieeee no kurła.. jakby to miało poźniej jakis wpływ na jej uzytkowanie.. no prosze cie panie techlipton..... karta cudownie lezy w dłoni... czy wy to slyszycie??? :)
@@hienasmietnikowa7795 czepiasz się szczegółów 👀
I pewnie ładnie pachnie ; )
@@robertkozlowski8209 zapach elektroniki lepszy od świątecznej choinki
@@TechLipton czegoś muszę :D jako stara wredna i rasowa menda co sie szwenda :D
@@TechLipton ale chyba nie palonej? :D
Szczerze, różnica między B580 a A770 jest większa niż się spodziewałem... aż tak, że krótko po pierwszych recenzjach zamówiłem już swoją B580.
Kochana A770 Alchemista, służyłaś mi dobrze ale pora Cię odstawic
Skad zamowiles?
@@_nietypowy sferis
@@Karti200 tak, zdecydowanie można docenić pracę Intela względem tego co było uczynione w Alchemist.
@@Karti200 czy sparkle titan oc?
@@_nietypowy dokładnie Sparkle Titan OC
bardzo chciałbym LE tak jak moja aktualna A770, no ale innego wyboru nie ma to biore Sparkle'a i tyle
Gdy patrzę na tę kartę to widzę Radeona HD 4870 😂
Używałem tej karty z pentium dual core 2.5@3,66ghz ahh to były czasy
@ dokładnie !
No wątpię
Z której strony?
XD mam takiego w domu XDD
Wiadomo już kiedy karta pojawi się w sklepach?
Jutro.
Już jest na x-kom w przedsprzedaży - info ze wyślą do 23.12
Nie została podana najważniejsza informacja - czy ta karta uruchamia najlepszą polską grę, czyli Gothic 1 i Gothic 2: Noc Kruka.
Pozdrawiam
Seria Gothic zostala stworzona przez niemieckie studio Piranha Bytes
Pozdrawiam
@@MoozyTheDealer Wiem o tym przyjacielu, ale w internecie to już sławny mem że Gothic jest polski, a Wiedźmin 3 niemiecki. Pozdrawiam ;)
Nie grałem jeszcze w Gothica. Dajmy sobie spokój z tą średnią grą.
Nie grałeś ale wiesz że średnia?
Szukam karty do I7-9700k, dużo strace bez rbar?
Tak, ale to i tak nie ma znaczenia, bo Arci nie wstaną na takiej starej podstawce
rx6600
Mam arc a 770 sparkle i jestem mega zadowolony choć czekam na B770 i jak wyjdzie to kupie
plotki mówią o Q3 2025 więc jeszcze trochę poczekasz :)
Dorównuje wydajności mojemu RX 6700 którego 2 lata temu dorwałem za 750zł używka
świetny zakup :-)
Nie zapominajmy, że nowa karta Intela konkuruje z już, właściwie, poprzednią generacją kart - a nawet wtedy miewa problemy. Jak najbardziej trzymam kciuki za Intela ponieważ desperacko potrzebujemy większej konkurencji na tym rynku, ale szczerze wątpię, że B580 pozwoli im ukraść większy kawałek ciasta.
Dlatego w podsumowaniu mówiłem o niechybnej premierze RTX 5060.
@@TechLiptonAle jakby dali 150zł taniej niż 4060 to już kawałek by urwali torcika....
To jest maraton, a nie sprint. Powoli po kawałku co rok lub dwa. Wyraźnie widać ogromny progres względem 1 generacji, więc można mieć nadzieje na dużo.
@@TechLipton No ale 5060 to chyba z 8 miesięcy po 5090 wyjdzie... przecie nvidia tak robi
@@danielkowalski7527 mówi się że tym razem będzie szybciej.
Skoro wali OCPekiem to trzeba microkod 0 numerze 0x22382feac323 wgrać ;) Liczę na to, że intel zdobędzie partnerów i następna generacja oprócz OCP będzie używała UVP do wyłączania kompa ;)
powiem tak: pobór mocy odstrasza.... żadne undervoltingi nic tam nie dały???
nic nie probowałes tam pozmieniac panie Techlipton?
@@hienasmietnikowa7795 ta krzywa działała tak mizernie że odpuściłem. Niby nowa wersja sterownika coś poprawia, ale dopiero będę to sprawdzał.
@@TechLipton aha :) dziekuje za odpowiedź :)
Miłego dnia wszystkim 😊😊
Ej ja na model AsRock-a czekam bo będzie biały i będzie pasować mi do kompa. (mam płytę Asrock-a)
Otrzymałeś od Intela?
To czy przy moim procku i5 9600k jest sens wymieniać z rtx 2060? Biorąc pod uwagę grę w 1080p i różnego radzaju gry. Sprzelanki, przygodowki, wszystko. Czy poczekać jeszcze z rok lub dłużej i zmienić wszystko (cpu, GPU, płytę, ram)?
Procek trochę słaby. Ja bym poczekał do nowych rtx'ów
@qwerty-w3l9p swoje lata już ma, chodzi od premiery 😛
@@nicra9 Zależy w co grasz i w co chcesz grać - 1080p 60hz większość będzie spoko, jak nie masz sraczki na coś extra to siedź bo to dobry sprzęt i ostatnia mało prądożerna generacja;
4:06 "Nowy Arc jest o niebo lepszy od nowego" ???
no jak będziecie tak nowe karty i nowe próby krytykować u starających się firm, to niedługo zostanie sama nvidia i będzie monopolistycznie sprzedawać RTX 5060 TI za 12tyś a nowości nie będzie, bo kto bogatemu zabroni?
Ok, szkoda, że nie było testów w grach e-sportowych, bo do tego ta karta może być wybitna
Karty graficzne kazdy robic moze... tylko po co?
A teraz co? CPU od nvidii?
ARM? Chyba wielu na to niego czeka.
DX11?
Niesamowite osiągnięcie, że na końcu 2024 roku intel zrobił kartę, która jest porównywana do prawie najsłabszej kart z serii konkurencji która wyszła w 2023 roku.
Gdzie kupic Limited Edt?
Nigdzie nie znalazłem ale widziałem karty ASRock na x-kom w przedsprzedaży
Czyli jesteśmy gdzieś w połowie stawki między 4060 i 4060 ti. Względem MSRP super, ale nie wiem czy nie wolałbym RTXa 4060 za 1249 zł (7600, 7600 XT i 4060 ti wychodzą gorzej cena:wydajność)
Mam od niedawna laptopa z RTX 4060 i jeśli chcesz mieć przyszłościową kartę to proszę nie bierz 4060, 4060Ti (nawet 16GB bo strasznie przepłacona) a także 5060 jeśli potwierdzi się plotka o 8GB pamięci. Już teraz są gry gdzie 8GB ogranicza tą kartę, gdyby miała chociaż te 10GB to bym złego słowa o niej nie powiedział. Hitem jest najnowszy Indiana Jones, w tej grze bez RT ta karta spokojnie na wysokich w 1080p ogarnęła 60fps tylko co z tego skoro przez brak vram gra się crashuje informując przy okazji o braku pamięci i trzeba schodzić do ustawień medium które są na styk z pamięcią? A mowa o 1080p bez żadnego RT. Jak chcesz kartę która posłuży Ci przynajmniej 2-3 lata i chcesz mieć spokój co do pamięci nawet w 1440p to nie bierz karty z 8GB pamięci. Co z tego, że jest DLSS, FG i świetna wydajność w RT skoro tego nie wykorzystasz przez brak pamięci? To równie dobrze w takich sytuacjach ta karta mogłaby się nazywać GTX.
mój 4060 asus dual w spoczynku 51W to tak ma być każdy tak ma ? czy da sie coś zrobić z tym ?
sama karta czy cały komp?
@@danielkowalski7527 karta
@@danielkowalski7527 karta sama
z takimi osiągami jeszcze daleko w polu, ale niech próbują...
Gdybym miał się na to przesiąść z mojego starego i niezawodnego RTX 2060, to bym się poważnie zastanawiał. Chyba bym się jednak nie zdecydował. Karta budżetowa, wydajnością ściga najwolniejsze karty na rynku, brak CUDA, Physx, GSYNC, dobrego skalowania a do tego niestabilna. Za 499 zł byłby to hit.
Za ile? Hitem to byłaby ona za 999 zł. Nawet za 1099 zł.
To życzę miłych zakupów. Wolę doplacić fo rtx 4060Ti lub 4070. Jak dla mnie minimalnej opcji. Chyba, że kupujesz nową kartę co roku.
Szukam czegoś dla trzech monitorów (nie gram) do samego wyświetlania obrazu ( trejding)
gt 1650 - najmniej prądu żre na wielu monitorach i są ciche wersje pasywnie chłodzone
@danielkowalski7527 Dziękować pieknie
swego czasu mialem do tych celow idealna NVS 510 (w maksie je 35W). Tylko pamietaj, ze ma 4 wyjscia po mini Displayporcie (kazde moze wyswietlic 4k w 60Hz)
Jest dobrze, vzekam jeszcze co Amd pokaże ale mozliwe ze kupię b580.
Czekam z tobą na premiery(modlę się do AMD aby wydali 8800/XT w styczniu)
Konkurencja zawsze jest dobra dla konsumenta, no chyba że chodzi o ai...
skoro rtx 4060 ti ma mało ramu , to dlaczego nic niema o wersji 16gb?
Bo tę kartę na śniadanie zjada RX 7800 XT.
@@TechLipton160 vs 260 tdp nie dość że droższa to droższa w użytkowaniu
ma ktoś pomysł dlaczego RTX 3080 wciąga 40w w idle/na pulpcie? żadne zmiany ustawień nie działają
Normalny pobór w spoczynku nie ma w tym nic dziwnego
@Aegie no chyba nie, mam obok 4070ti i łyka jakieś 15-18, 40w brał mi kiedyś radeon 5700xt bo miał zrypane sterowniki dla 1440p i wyższego odświeżania niż 60hz
@@dzemorek7738 40W to zdecydowanie za wysoki pobór.
około 10w powinna żreć - może wcale nie taka idle?
@@danielkowalski7527 no właśnie idle, zużycie 1-2%, nawet jakby miała animowaną tapetę to powinno być mniej, przypadkowe odkrycie w kompie dziewczyny, nic nie działa
Czyli jak stalker i wukong leży, to jest problem z działaniem pod ue5. A gier na ue5 będzie coraz więcej.
tam słaba optymalizacja po prostu, nie dość że silnika to i gry
Ale to pewnie można "zategować" sterownikami.
Ciekawy wniosek, napewno warto mieć z tyłu głowy
@@pawe3919 problem to jest z UE5, a nie kartami 🤡
@TechLipton Jeden rabin powie tak, inny powie nie. Jedni mówią, że to problem z "leniwymi developerami", inni, że z silnikiem. Może warto temat pociągnąć, zarówno na nowym Intelu, jak i innych kartach.
Mam pytanie do Pana Liptona czy zestaw rx 6750 xt z ryzenem 5 3600 bedzie miał bottelneck
Taa... Karta do gier na której nie uruchomię dobrą połowę (jeśli nie więcej) swoich gier bo zapewne znów olano obsługę starszych tytułów pod DX9 i wcześniejszych.
A jeśli chodzi o pierwsze wrażenie wizualne karty to jednak poprzedni "founders" Intela bardziej do mnie przemawiał.
No niestety . Trzeba mieć drugiego retro pc.
@MsGtr Najzabawniejsze jest to że dziś coraz więcej wydawców, twórców, czy nawet plarform (choćby taki GOG) przystosowuje software'owo by wcześniej niekompatybilne programy/gry działały na współczesnych systemach czy sterownikach, to taki Intel szukając klientów właśnie wśród graczy idzie w drugą stronę i wydaje na rynek hardware niekompatybilny z takimi grami i strzela sobie sam w kolano rezygnując zapewne ze sporej grupy potencjalnych kupujących i kasy. Dla mnie od samego początku ARC był na straconej pozycji, czy to przez brak wsparcia dla DX9 czy przymus do stosowania rBAR. A jeśli dołączyć do tego znane problemy ze sterownikami, które być może w Battlemage'u poprawili/naprawili choć wątpię, czy bardzo małą ilość firm produkujących ich karty przez co jest niezwykle mały wybór to ciężko widzę ich przyszłość w tym segmencie. Pomijam już całkowte wypalenie się firmy na rynku CPU.
@@danielx5294 na techspocie masz recenzje z testow 250 gier (test z lipca tego roku) na Arcu A770 16GB. W 218 tytulach nie stwierdzono zadnych problemow, reszta jakies tam miala (zazwyczaj jakies artefakty graficzne, albo grywalna liczba klatek na sekunde (musialo byc wiecej niz 40) w rozdzielczosci 1440p). I tu pojawil sie problem z niekompatybilnoscia procesora graficznego z AMD (zamiast Intela testowali wszystko na platformie z AMD 7800XD, domyslnie gra szukala iGPU Intela). Pisza tez o kompatybilnosci ze starszymi grami i o tym, ze predzej napotkasz problemy z niekompatybilnoscia tych gier w stosunku do nowych systemow operacyjnych (np. typu zmuszenie by gra byla w trybie panoramicznym), niz niekompatybilnoscia sterownika Arca. Duzo czytania i przemyslen.
Skąd wy takie banger'y-nutki znajdujeciecie do tych testów haha
Epidemic Sound.
@@TechLipton No chyba xD
1:25 Pojawiły się już pierwsze oferty w sklepach, ale tak o 200 złotych drożej niż na powyższej grafice. :(
No tak 350-500 zł więcej niż msrp wersji LE, więc no...
Oczywiscie zycze intelowiaby mial mocna koinkurencje dla nvidi, ale jeszcze daleka droga :D
Taka alternatywa do RTX4060Ti. Najważniejsze, że jest konkurencja z RayTracingiem.
AMD i Nvidia zasluzyly sobie na to, by ktos ich ustawil do pionu bo rynek kart graficznych to jakas totalna porazka i padaczka.
Kto pamieta czasy gtx970 czy gtx1070 i 1080ti ten sie w cyrku nie smieje.
Nic tylko czekac na drozsze karty od Nvidii typu 5060 z 8GB czy 8800xt od AMD tez z 8GB ktore beda sie zaczynaly od $300, czyli u nas jakies 1700 minimum.
Masło już zaliczyłem... teraz czas na herbate😋
lipton to znak firmowy a herbata to roślina ^^
Kurcze granie w 30-50 fpsach do dla mnie jakiś masochizm. Jak można z czystym sumieniem polecać taką kartę do 1440p? Przecież ktoś to kupi na podstawie takiej recenzji i srogo się zawiedzie... FHD i to tyle, wyższe rozdzielczości to niestety trzeba zapłacić 3k+ 😢
tez tego nie rozumiem. Od jakiegoś czasu mam bardzo mieszane uczucia co do tego, na ile jeszcze starczy 4070s, żeby go dalej nazywać kartą do 1440p, a tutaj taki burak 😆
Nie trzeba mozna nie grac😅
kurde ja na integrze grałem sobie w lineage2 parę lat i fajnie mi się grało, dla jajec sobie sprawdziłem ile mam fps i wyszło 25 fps :D . A tu 50 i się grać nie da, masochizm, matko. Krzywdę ludziom robią te programy do fps, tak by jeden z drugim grał przy 60 fps i by nie wiedział to nigdy by nie zauważył tego, a tak ludzie są w stanie dać 1000 zł by skoczyć z 120 fpsów na 130 xD
Możesz użyć upscalingu i wydajność będzie lepsza. Ja gram na 3060ti w 1440p z dlss jakość albo zbalansowane i zawsze 60fps wyciągam. Co prawda dlss jest lepsze od xess ale dla przeciętnego człowieka różnica w jakości obrazu jest tak znikoma, że nie ma czym sobie zaprzątać głowy.
Wystarczy nie odpalać wszystkiego na Ultra.
W końcu coś dla kowalskiego, a nie RTX 5090 za 2k$. Może kolejny materiał, ale już o RT? Czy działa o wiele lepiej od Radeonów?
@@laczek153 oczywiście że tak. Intel w RT deklasuje karty AMD ;)
@@TechLipton Posiadam A770, pierwsza generacja dobrze działała w RT. Z chęcią obejrzę materiał głównie o graniu z RT, PT w C2077 i jak producenci sobie z tym radzą, może po premierze nowych kart AMD. Jeśli AMD w RDNA4 mocno nie poprawi się w tym aspekcie, to będzie rzeźnia. RT dla AMD to nowy odpowiednik DX11 i teselacji, z którą długo się męczyli, ale jeszcze gorszy. Tutaj nie wprowadzą ograniczenia jak przy teselacji w sterowniku na x16, nazywając to "optymalizacja AMD" oraz nie przeczekają na nowe API jak przy DX11->DX12. Do zmian w architekturze, sterownikach dochodzą do tego techniki skalowania, generowanie klatek i jeszcze jak to wygląda w porównaniu do konkurencji. W czasach DX11 już był problem, aby dogonić zielonych w jednym aspekcie, nie wspominając o DX11 multithreading, którego w radkach nie było, dlatego ratowali się niskopoziomowym API Mantle. Wchodzi kolejny gracz i na start oferuje lepsze techniki programowe niż czerwoni, o Nvidii nie wspominając. Dział CPU odrodził się, ale dział GPU w ciągu ostatnich 10 lat ciągle w tyle za innymi. Najgorsze to, że dystans tylko się zwiększa.
@@laczek153to ciekawe co mówisz bo ja pamiętam czasy GTX 780 i starszych generacji, gdzie NVIDIA szybciutko się starzała pod względem architektury i takie słabiutkie na starcie Radeony z architekturą GCN w późniejszych latach długo dawały radę a z kartą zielonych to sobie mogłeś co najwyżej na trailer nowych gier popatrzyć. Nie wspominając o notorycznym niedoborze pamięci vram u zielonych.
@@marcinwegrzyn6309 Nvidia od zawsze dawała vramu na styk, seria gtx 500 ucierpiała mocno patrzać na dłuższe działanie. Karty z podwojoną z serii GTX 500, 600 dawały radę, a podstawowy model już się dławił z braku pamięci. Tak jak napisałeś, GCN w kolejnych latach zyskiwało na wydajności w porównaniu do odpowiednika zielonych, ale zanim to nastąpiło, konsumenci wymienili na nowy, szybszy model, z mniejszym poborem mocy, nowy DX itd. Co z tego jak w ciągu 5 lat Radeon zyska na wydajności przez vram, a na używkach GPU AMD nie zarabia. Dla konsumentów najlepiej jak karta starczy jak najdłużej, a dla producentów? Niekoniecznie...
Jest taka stagnacja na rynku PC że to szok
U Zmasło blender poszedł lepiej, jak to?
a tu se ustawił tak, a tam se ustawił to i tamto inaczej i o inaczej wyszło ^^
Myśle że jednak NVidia robi najlepsze referenty. Jak dla mnie Rtx 3000/4000 (wedle mnie Rtx 4090) to masterpiece. Kawał metalu i nic więcej. Czuć dobrą jakość.
Mnie interesują Radeony ogólnie najlepszy stosunek ceny do wydajności czekam na RDNA4 mam 7900XT i bardzo sobie chwalę karciocha świetna pozdrawiam
U mnie 6950XT kupiony w 2023 za 3099zł pięknie śmiga 😊
Nie opłaca się ulepszać w 2025 do RDNA4 chyba że zależy ci na RT i czymś podobnym do cuda cores
dobrze grzeje? ;-D
@@Aegie skąd wiesz skoro rdna4 nie ma
@A-BYTE64 głównie plotki i leaki
Samo AMD mówiło że nie będzie konkurować w wysokim segmencie
16:18 test testowi nierowny, ogladam material Hardware Canucks i tam sytuacja z Premiere Pro jest dokladnie odwrotna (czas renderu i eksportu materialow w 4K 16min) to dla B580 12GB 6:45, a dla RTX 4060 8GB 9:32. W DaVinci Resolve 19 Intel 6:45, Nvidia 8:35.
To ciekawe, bo QS pomimo szukania w opcjach nie był w ogóle dostępny jako forma wsparcia kodowania.
@@TechLipton ogladam teraz material PCWorld i tam PugetBench 1.1.0 Standard Overall 25.1 dla Adobe Premiere Pro 25.1 dla B580 11340 punktow, RTX 4060 9931 (w tym tescie nawet A750 lepiej wychodzi z wynikiem 11401) (za to nie udalo im sie odpalic testu z DaVinci Resolve)
@@Ciekawosc będę to jeszcze sprawdzał. Przy czym mam wrażenie że to wyniki dla ARC pochodzą z maszyny losującej. U każdego inny rezultat.
@@TechLipton dlatego jakis czas temu pisalem, ze te testy to ruletka, ze najlepiej jakby byl sprawdzian poza systemem operacyjnym typu Linux, czy Windows, bo one same z siebie wprowadzac moga zamieszanie (od sterownikow, po pracujace w tle tysiace watkow). I powtarzam: marzy mi sie test zaimplementowany w samej plycie glownej. W biosie mamy rozbudowane graficznie menu, w czym problem zrobic sekcje benchmark?
@@Ciekawosc czekaj czekaj 1 update i wszystkie te testy do śmieci ;-D
Do 1440p? to jakiś żart, czy kartami do tej rozdzielczości bedą nazywane wszystkie, które jakoś sobie radzą na średnich detalach, lub oferują ustawienia wysokie, ale skalowane z kalkulatora?
to zależy chyba kto z jakich czasów jest, kiedyś się grało na kilkunastu fps i było git, nie trzeba wszystkiego na maksa aby cieszyć się grą
Nikt nie broni ci kupować kart za 2-3 tysiące, ale 60 klatek w Cyberpunku to chyba niezły wyznacznik czy karta nadaje się do danej rozdzielczości
@@VraanVritr Na 4 letniej grze chcesz testować?
informacyjnie: puscilem Blendera (4.1) z tym classroomem i na moim ARCu 770 16GB skonczyl renderowac klatke po 30 sekundach (sterowniki 32.0.101.6130). Nie byl polaczony w Deep Linku z procesorem graficznym 13900K, pewnie wynik bylby lepszy. EDIT: miala przy tym zalozony kaganiec na 190W
Ciekawe. Przed chwilą sprawdziłem u siebie na 10505 (czyli bez Deep Linka jeszcze) z A750 (32.0.101.6314) Classroom w wersji 4.1 i test skończył się po 30-31 sekundach... Domyślny kaganiec 190W, bez OC.
Do 1500 zł nadal najwydajniejszą kartą jest RX 6750xt
Tak, to prawda. Nawet napiszę więcej. Liczyłem że ta karta pojawi się w zestawieniu, niestety mój model Powercolor wyzionął ducha.
F1 24 pierwsze z obsługą xess2
od tygodnia zastanawiam się co kupić 4060ti? 4070? rx 7700? 7780? teraz jeszcze intele zwariować można.....
problemy pierwszego świata ;-) w co chcesz grać? na czym Ci zależy? ;-)
@danielkowalski7527 assetto Corsa, dirt 2, ets os czasu do czasu. A jeszcze w styczniu wychodzi assetto Corsa evo no i żeby było ciekawiej to rtx seria 50.
@@danielkowalski7527 coś mi się wydaje że wybór padnie na 4060ti 8gb lub 7700xt, na dwa lata wystarczy.
@@adrianadamczyk498 bierz z 12-16gb na wszelki wypadek może wtedy na 6 lat starczy - zobacz jak rx 580 8gb się zestarzał dobrze dzięki 8gb (wtedy dużo)
@@danielkowalski7527 mam teraz w kompie rx580 8gb. Super karta
Widząc osiągi tej karty czyli Intel ARC B580 (12GB) Nie warto wymieniać mojego starego RTX 3070 ;)
@@adamwenta9753 przypomnę że Twój RTX ma 8GB VRAM 👀
@@TechLipton No i?
@@winio437 No i w kilku gierkach se nie włączy wszystkich wodotrysków i trza będzie w opcjach ciąć a od tego dzieciom smartfona palce odpadają
Ok Intel może działać dobrze w nowszych, popularnych grach, lecz w tych starszych pewnie jest gorzej.
Dlatego nie kupiłbym takiej karty graficznej, w dodatku ten pobór prądu mnie odstrasza.
rx7600m pod usb 100w żre ^^
Potrzebujemy czegoś takiego jako zwykłą kartę
Na pure pc jest że ma tylko 1280 SP
Jeszcze tylko poczekać aż nVidia wejdzie w procesory i w pytę
Ja mam nadzieję że trzeci gracz na rynku kart graficznych sprawi że ceny kart graficznych ogólnie polecą w dół