VIDEO TRANSCRIPTION
No description has been generated for this video.
Witajcie w drugiej części materiału, w którym sprawdzamy sens łączenia mocnej karty graficznej z procesorem Ryzen pierwszej generacji. Pod koniec poprzedniego materiału wspomniałem Wam, że coś padło i aby móc zrealizować drugą część materiału musiałem czekać dobry miesiąc. Jako zagadkę na koniec odcinka poprosiłem Was o podanie możliwej przyczyny i jak najbardziej dziękuję Wam za sporo komentarzy z tym związanych. Wiele obstawiało grafikę czy nawet płytę główną, co jasne mogłoby mieć sens, ale to nie było to. Właściwa odpowiedź cały czas znajdowała się tuż przed nosem. A co to było? No cóż, nie pozostaje mi nic innego jak zaprosić Was do oglądania. Z tej strony Paweł, a Ty oglądasz kanał Tech Mania KD.
W tym odcinku przygotowałem dla Was tak wyczekiwane testy gier i uwierzcie mi, te nie obędą się bez zaskakującego, czy może nawet szokującego przewrotu. Niemniej jednak nim zaczniemy rozgrzebywać temat dalej, wypada rozpocząć ten odcinek w miejscu, gdzie poprzedni się zakończył, czyli awaria na pokładzie. Co prawda dokładnych statystyk komentarzy nie prowadziłem, ale chyba lepiej niż połowa z Was strzelała, że to karta graficzna wyzionęła ducha. Jasne, było takie prawdopodobieństwo, ponieważ kilka miesięcy temu, gdy wypuszczono pierwsze egzemplarze RTX-ów 2080 Ti, te mijewały kilka różnych problemów. Zablokowane zegary, artefakty na ekranie, zawieszki, czy nawet fizyczne uszkodzenia kart.
Niektóre z tych problemów można było wyleczyć ponownym splashowaniem BIOS-u, nowymi sterownikami, a w przypadku fizycznego uszkodzenia wystarczyła samodzielna naprawa z użyciem kombinerek i taniej lutownicy. Oczywiście, że sobie żartuję z tym ostatnim. Chyba nikt tego nie wziął na serio. Zgodnie z przepisami Unii Europejskiej sprzedawca musi udzielić co najmniej dwuletniej gwarancji prawnej, tzw. rękojmi. Na wypadek gdyby zakupiony towar okazał się uwadliwy, bądź nie wyglądał lub nie działał tak, jak przedstawiono w opisie. Tak więc nie ma nad czym rozpaczać i w końcu od tego jest gwarancja, czy też rękojmia. Naturalnie taka wpadka Nvidia zrodziła wielkie poruszenie. Wszyscy mieli o czym dyskutować, przez co obiło się to wielkim echem, nie tylko wśród graczy.
Wszelkie media podłapały temat z zapałem dolewając oliwy do ognia. W końcu takie rzeczy się dobrze czyta i ostro komentuje. To z kolei generuje ruch w serwisie, a każdy chyba dobrze wie co za tym idzie. Ja osobiście nie lubię dramy ani jej czerpania korzyści z tego typu newsów. Dlatego też ów tematu na kanale podejmować w ogóle nie chciałem. Jednak pod ostatnim odcinkiem pojawiło się mnóstwo komentarzy twierdzących, że RTXy padają jak muchy i mój egzemplarz też na pewno szlak jasny trafił. No ale skoro wszelkie media i portale społecznościowe się o tym tak namiętnie rozpisywały to rozumiem, dlaczego mnóstwo osób mogło tak właśnie pomyśleć.
Ja bardzo szanuję inteligencję moich widzów i uznałem, że zasługujecie na sensowne wyjaśnienie tego, co tak naprawdę tutaj zaszło. Więc jasno i krótko mówiąc to tak. Problem był i rzeczywiście określona ilość kart nowej serii okazała się być wadliwa. Więc gdzie leży prawda? Cała bańka pękła w momencie jak się okazało, że część usterek występowała w konfiguracjach z wieloma monitorami lub na matrycach z wysokim odświeżaniem. Problem, który objawiał się niebieskim ekranem śmierci dało się naprawić aktualizacją sterowników. Z kolei karty, na których widoczne były artefakty czy powstały fizyczne defekty faktycznie musiały być wymienione na nowe.
No ale czy jest aż tak tragicznie? Otóż udało mi się odnaleźć materiał Derbowera, który przedstawia wyniki zwróconych, wadliwych egzemplarzy i porównuje je do modeli 1080 i 1080Ti. Link do tego całego materiału odnajdziecie w opisie, tak więc po tych kilku pierwszych miesiącach sprzedaży pasują się one następująco. 0,17% RTX-ów 2080 zostało zwróconych jako wadliwe. Jest to bardzo mało, ale cała fala hejtu posypała się na wersje Ti, z których na wymianę gwarancyjną wróciło 1,4%. Dla porównania GTX 1080 jako wadliwy był zwracany w ilości 7,1%, z kolei 1080 Ti plasuje się na poziomie 4,6%. To jasno pokazuje, że temat awaryjności nowej serii jest zlekkza mocno rozdmuchany. No i chyba teraz sami rozumiecie co tu się stało.
Jak początkowo był wielki show w mediach mówiące o umieraniu kart serii 2000, tak szybko sprawa ucichła. Aczkolwiek weźcie te dane z pewnym dystansem, bowiem jak poprzednia seria jest już kilka ładnych lat na rynku, tak te dane RTX-ów dotyczą dopiero pierwszy kilku miesięcy sprzedaży i bazują na kartach partnerów. Niestety nie dysponuje danymi w przypadku kart Founders Edition zagupionych w przed sprzedaży, których problem tak naprawdę dotyczył. Tak więc premiera RTX-ów idealna nie była, ale statystycznie ilość problematycznych kart nowej serii wcale nie przekracza ilości zwrotów, jakie miały miejsce we wcześniejszych generacjach. Jest to raczej kolejny przypadek choroby wieku dziecięcego. Wiele produktów na to cierpiały i Nvidia nie jest ani pierwsza, ani ostatnia, której się to przydarzyło.
Rzecz jasna, żadna firma nie wypuszcza bubla z premedytacją, lecz tworząc jakikolwiek produkt na tak masową skalę, wpadki się po prostu zdarzają. Owszem, tutaj też można powiedzieć, że noga się zlekkapowinęła, ale pamiętajcie o tym, że proces technologiczny tworzenia produktu jest ciągle ulepszany. A nawet jeśli zakupiony towar okaże się wadliwy, to no cóż, przecież od tego mamy ochronę kupującego. Nikt nie jest szczęśliwy z faktu potrzeby oddania nowego sprzętu na gwarancję, ale czasem może to wyjść konsumentowi na plus. Na pewno wielu z was pamięta niedawno ogromną wtopę Samsunga z wybuchującymi modelami Note 7. Ja też byłem jedną z tych poszkodowanych osób, które ów model kupili jeszcze przedpremierowo.
Moja radość nie trwała długo, bowiem jednego poranka się nagrzał i tyle. Już później się nigdy nie włączył. Oczywiście, że byłem wściekły z tego powodu, bo zostałem bez telefonu na te kilka dni. Za to pieniążki mi oczywiście zwrócono i nawet pozwolono zostawić sobie gogle wirtualnej rzeczywistości, które jeśli dobrze pamiętam kosztowały wtedy coś około 100 euro. Więc taka stówka na otarcie łez. Za to kupiłem sobie tańszego S7 Edge i tyle. Po sprawie. Z kolei jeszcze lepszym przykładem choroby wieku dziecięcego produktu, na której zyskało tak wielu użytkowników jest Sony i ich Playstation 3. Tutaj technologia produkcyjna udoskonalona latami. Może widzieliście w moich innych filmikach przewijającego się Play jaka gdzieś w dle.
Z Playstation 3 to ja miałem wiele problemów, ale summa summarum wcale nie czuję się poszkodowany. Swego czasu kupiłem 40 gigabajtową wersję, w której padł napęd Blu-ray. Wymienili mi ją na 80 gigabajtową wersję, ponieważ tej mniejszej już nie mieli. Ta po czasie zaczęła się przegrzewać, to dostałem 120. W tej po kilku miesiącach padł dysk, po czym otrzymałem wersję 320 gigabajtową, chociaż swego czasu kilka lat wcześniej zapłaciłem za 40 gigabajtówkę. No i za każdy raz wymieniali mi też kontroler na nowy. Wiem, że już wyskakujemy troszkę ponad temat, ale chciałem tym zwrócić uwagę, że nie zawsze taki diabeł strasznie go malują.
Osoby, którym trafiły się władliwe RTX-y miały po prostu wielkiego pecha i doskonale rozumiem skąd ten żal. Zrobił egzemplarz póki co działa i mam nadzieję, że tak zostanie na dłużej. Jednakże wychodzę z założenia, że jak coś ma paść to ja bardzo proszę, niech to się stanie szybciej aniżeli później, gdy po gwarancji będzie już tylko wspomnienie. Wniosek z tego taki, że pierwsze generacje psuć się lubią i proces produkcji należy udoskonalać. No ale ochłońmy już i wróćmy na główny tor, bowiem tematyka awaryjności RTX-ów zajęło nam zbyt wiele czasu w tym odcinku. Więc lećmy z materiałem dalej.
W awarii na pokładzie to wielu z was obstawiał też uszkodzenie płyty głównej, kolejne ochłodzenia wodnego, a nawet jedna osoba zakładała, że to LED-y. Lecz nic z tych rzeczy padł. Nowy zasilacz. I to po jakiś niespeł na 20 sekundach pracy. Niestety nie udało mi się tego nagrać, bowiem nie spodziewałem się takiego obrotu sprawy. Zwyczajnie podłączyłem wszystko jak trzeba, odpaliłem kompa, wszystko wyglądało ok. Windows zaczął się wczytywać i tylko mignęło mi okienko logowania, po czym nastąpiło wyłączenie. Uwierzcie mi był to moment ogromnej grozy, bowiem komputer włączyć się już nie chciał. Słychać był jedynie dźwięk wydawany przez jakiś przekaźnik, który dochodził zasilacza. Rzecz jasna pierwsze co mi przyszło do głowy to ups, chyba uszkodziłem kartę.
Dlatego absolutnie nie mam żadnego żalu do wszystkich, którzy obstawiali ten sam problem. W każdym razie moja radość nie znała granic, gdy komputer ruszył po podłączeniu do poprzedniego zasilacza. Radość w cudzysłowie mówiąc, bowiem jak karta i cała reszta okazała się nienaruszona i w pełni sprawna, tak o frajdzie z nowego zasilacza mogłem chwilowo zapomnieć. Niemniej jednak trzeba było zacząć działać i coś z tym fantem zrobić. Po kilku czy nawet kilkunastu kolejnych próbach w dalszym ciągu nie mogłem uruchomić zestawu na nowym zasilaczu. Dlatego wszedłem na stronkę Euclermaster w poszukiwaniu wsparcia, moment na założenie konta, rejestracji produktu i już mamy dostęp do wszelkiej pomocy.
Napisałem tam stosunkowo krótką wiadomość wyjaśniającą co się stało oraz załączyłem filmik próby uruchomienia, jak i kilka zdjęć. Później troszkę sobie popisaliśmy supportem. Poprosili mnie także o spięcie pinów i próbę uruchomienia zasilacza na sucho. Oczywiście ten nie ruszył i wszczęta została pełna procedura gwarancyjna, w rezultacie której otrzyma nowy i jak najbardziej sprawny już zasilacz. Pytanie tylko, co było przyczyną rychłej śmierci poprzedniego egzemplarza? Wydawało mi się, że mogło to być spowodowane połączenie USB z płytą główną, które łatwo nieopacznie wetknąć o jeden rząd pinów dalej i wtedy byłaby to moja wina. Lecz jak później jeszcze pisałem supportem, to ten był raczej zdania, że problem mógł tkwić w okablowaniu cable mod, ale to już tylko takie gdybanie.
W każdym razie morał z tego taki, że wszystko co działa może się zepsuć. Jednak nie powinniśmy ulegać negatywnym emocjom w takiej sytuacji. Pozytywne załatwienie wymiany gwarancyjnej odbyło się bez problemu, konkretnie i rzeczowo. Tutaj najwięcej czasu pochłonęły same przesyłki kurierskie. No ale jak znacie już całą historię, wiecie co zaszło i rozumiecie skąd to opóźnienie, to możemy w końcu przejść do głównego wątku tego odcinka. Aby móc wyciągnąć jakikolwiek wnioski o łączenie Ryzena z tak potężną kartą, musimy przyjrzeć się bliżej kilku grom oraz przeanalizować ich wydajność. W tym zestawieniu przygotowała obecnie najpopularniejsze tytuły oraz takie, które w dalszym ciągu są mocno ogrywane czy zapadły nam w sentyment. Zacznijmy od tego co obecnie jest na fali.
Mowa tu oczywiście o Assassin's Creed Odyssey. Gra podoba się 94% użytkowników Goggla, a że sam ją obecnie ogrywam muszę się zgodzić, że rozgrywka jest miła, a sam klimat mocno wciąga. Chociaż nie brakuje tu monotonicznych zadań i powtarzalności, lecz dzisiaj nie przyszło nam rozstrzygać o tym czy gra jest dobra czy nie, a mamy przeanalizować jej wydajność. Tak więc spójrzmy na tabelę wyników. Początkowo ten gąsz może o nie śmielać, ale dajcie wytłumaczyć o co w tym chodzi, a każdy kolejny slajd będzie już dla Was w pełni przyjazny. Więc jebieski słupek to średnia ilość uzyskanych klatek na sekundę, czyli to co interesuje nas najbardziej.
Czerwony to 1% najniższych FPS-ów, z kolei Jasny Pomarańcz odpowiada 0,1% z tych właśnie najniższych klatek i jest to zwykle wartość bardzo podatna na wszelkie fluktuacje czy też odchylenia. Prejestracja 1,1% Low bywa bardzo przydatna, do czego jeszcze wrócimy, ale póki co patrzcie na Jasno Pomarańczowe słupki z lekkim dystansem. Dla ułatwienia możemy przyjąć, że w moich wykresach zachowana będzie zasada trzech. Mamy trzy słupki z ilością klatek, czyli średnie 1 oraz 0,1% Low. Trzy części odpowiadające rozdzielczościom 1080p, 1440p oraz 4K, a także trzy opcje na jakich testowałem. Najpierw pełen standard tak jak fabryka dała. Następnie CPU OC, czyli po podkręceniu procesora. Z kolei ostatnie uwzględnia podkręcenie procesora oraz karty graficznej.
Tak więc skoro potrafimy już czytać wyniki to widzimy jak Assassin's Creed jest skalowany. Podniesienie zegara procesora z 3. 7 do 3. 9 GHz pozwala uzyskać wyższą wydajność w rozdzielczości 1080p jak i 1440p. Z kolei przy 4K średnia ilość klatek nie ulega zmianie, co pozwala nam wstępnie sądzić, że w zdecydowanej większości ograniczeni jesteśmy już tylko samą kartą graficzną. I jest to moment kiedy RTX 2080 Ti jest w pełni utylizowany. Zresztą pokusiałem się o porównanie moich wyników z rezultatami, które opublikował PC Gamer. Ciekawiło mnie bardzo jak mój starszy Ryzen plasuje się na tle tak wywyższanego Intela 8700K czy nawet 9900K.
Chyba dla nikogo nie będzie to zaskoczeniem, że topowy Intel robi to lepiej o jakieś 15%, a nowszy Ryzen 2600X o jakieś 5%. Niby dużo, niby mało. Ale mówimy tu wciąż o 1080 jak i 1440p. Z kolei w rozdzielczości 4K różnica się zaciera, a nawet uzyskiwałem średnią wyników przekraczającą to co opublikował PC Gamer na platformie z Intelem 9900K. Chociaż jest to tylko różnica w zakresie błędu statystycznego, ale jednak udowadnia, że jeśli planujemy grać w wyższych rozdzielczościach to nawet przy nowym Asasynie nie mamy czego się obawiać. Z drugiej strony wciąż niewiele osób ma taki monitor i można rzec, że w niższych rozdzielczościach 75 klatek na starym Ryzenie robi różnicę względem magicznych 85 na Intelu.
Jasne, tylko że 9900K z sensowną płytą główną kosztuje leko 3 czy nawet 3,5 tysiąca złotych, gdzie zakup nowego Ryzena takiego jak mój z główną to koszt nie przekraczający 1500 złotych, a z używanych części jeszcze taniej. Szczerze to za takie dwa klocki w kieszeni wolałbym sobie kupić nowy, 28 calowy monitor 4K, dodatkowy dysk SSD na gry i można żyć jak król. Przynajmniej takie są moje osobiste spostrzeżenia i przecież nie wszyscy się muszą z nimi zgadzać. Może i jestem stronniczy względem rozdzielczości 4K, bowiem od dwóch lat posiadam taki monitor. Jak na moje oko jest ogromna różnica, zwłaszcza przy większych przekątnych.
Nawet sadzałem przed tym monitorem rodzinę i znajomych, którzy od razu stwierdzali, że wow, ta sama gra, a wygląda tu jakoś ostrzej i wyraźniej. Więc przypuszczam, że jeśli i wy będziecie mieli możliwość przesiąść się na wyższą gęstość pikseli w zaciszu swojego domu, także docenicie ten upgrade. W każdym razie, nim porzucimy temat Asasyn'a, to warto się jeszcze zastanowić skąd ta różnica wydajności w tych niższych rozdzielczościach. Czy naprawdę procesor jest takim wąskim gardłem? Otóż w czasie grania na Razenie 1800X ani razu nie widziałem sytuacji, aby procesor był w pełni obciążony na wszystkich 16 wątkach.
Poszczególne owszem, mieliły na 100% od czasu do czasu, jednak należy pamiętać, że nowy Asasyn, choć nowy, topiera się już na dość starym silniku, który posłużył już do wypuszczenia trzech części Assassin's Creed. Ostatnia odsłona Odysei była stworzona, aby wyglądać naprawdę dobrze i ustawienia ultra wysokie, w których robiłem wszystkie benchmarki, równają się też z ultra wysokimi wymaganiami. O najwyższe settingsy w tej grze będą mogli pokusić się tylko właściciele najmocniejszych sprzętów. Przejdźmy do kolejnej testowanej gry, którą jest Fortnite. Tytuł ten skupia przynajmniej 40 milionów graczy, przez co nie mogło go zabraknąć także w moim zestawieniu. Osobiście nie jestem fanem tego typu rozrywki, ale dałem szansę i spróbowałem swoich sił.
Jako totalny amator, nie wiedząc w ogóle o co chodzi, udało mi się zostać także królem meczu, co chyba świadczy bardzo dobrze o mnie lub źle o innych graczach. Niepotrzebny wykreśl. Żeby nie było, później obejrzałem kilka tutoriali, aby nawet przy benchmarku zaprezentować poziom większy niż zerowy. W każdym razie wyniki wyglądają następująco. Tutaj jasno widać, że podniesienie taktowania procesora przy 1080, jak i 1440p znacząco podnosi średnią ilość klatek i oznacza, że sam procesor jest tutaj zaporą uzyskania jeszcze wyższego klatkarzu. O ile ktoś w ogóle mierzy w utrzymanie powyżej 150 klatek na sekundę. Z kolei przy 4K ponownie widzimy, że nawet taki potwór jak 2080Ti jest w całości utylizowany.
Podniesienie zegara procesora w zasadzie nie dało nic. Oczywiście pamiętajcie o błędzie pomiarowym, a ten jest wyższy w przypadku braku powtarzalności online'owej rozgrywki. Rzecz jasna, overclocking grafiki pozwoli uzyskać minimalnie więcej klatek, co dodatkowo udowadnia tę teorię, że stary Ryzen nie jest tutaj bottleneckiem. Przynajmniej przy rozgrywce w 4K. Kolejną chwilę poświęćmy na analizę trzeciej odsłony Wiedźmina. Tytuł ten ma już swoje lata, ale po dzień dzisiejszy gracze darzą go respektem i w dalszym ciągu wielu ostrożnie dobierają ustawienia graficzne, bowiem rozpędzenie się za daleko potrafi zatkać niejedną skrzynkę. Jednakże jest to test, więc wszystko na uber i nawet Hairworks pozostawione, tak jak być powinno, na razy 4, no bo przecież chyba nie będziemy sobie żałować.
Tutaj widzimy, że przy FullHD podkręcenie procesora pozwala uzyskać kilka dodatkowych FPS'ów, ale i procedura ta zmniejsza także spadki 1% low. Rzucnica z lekka siel zaciera przy 1440p, z kolei w 4K prawie nie istnieje, chyba że ponownie popatrzymy na 1% najniższych klatek. Wykres ten dowodzi, że Wiedźmin w dalszym ciągu jest tytułem, które wymaga niezwykle dużo od układu graficznego i to niekoniecznie w najwyższych rozdzielczościach. Ten prezent pierwszej generacji i tak lekko odstaje względem topowych, no i dużo droższych inteli, aczkolwiek jeśli w dalszym ciągu pozwala on na miodną rozgrywkę Wiedźmina w 4K na uber, zachowaniem średnich 68 czy nawet 75 klatek w lokalizacjach typowo procesorowych, no to kto by narzekał.
W następnym zestawieniu jest Battlefield V zarówno bez, jak i z Ray Tracingiem. Zaczniemy więc od standardowej wersji. Tutaj musimy się zgodzić, że wzór lubi się powtarzać i nie jest to już tylko kwestia przypadku. Podniesienie taktowania procesora przy 1080 jak i 1440p pozwala coś tam więcej wykrzesać, lecz ta sama czynność w przypadku 4K nie daje praktycznie nic. Jednakże podniesienie taktowań karty graficznej owocuje zwiększeniem wydajności w każdym przypadku, co oznacza, że jest ona utalizowana dość poprawnie i cóż, wcale się jakoś nie marnuje, ani nie chodzi na półgwizdka. Przy włączonym Ray Tracingu Ryzen 1800X wychodzi obronną ręką, bowiem śledzenie promieni w czasie rzeczywistym od samego 1080p wykorzystuje pełen potencjał najmocniejszej konsumenckiej karty graficznej.
Tutaj widzimy, że podkręcenie RTX-a 2080 Ti przy 1080p daje 5% wzrost średniej uzyskanej ilości klatek. Jednakże przy 1440p jak i przy 4K jest to blisko 10% wzrost wydajności. Ostatnia odsłona Battlefielda jest świetnym momentem, aby pokazać Wam jakie karty notuje maksymalne zapotrzebowanie na energię. W końcu DirectX 12 Ray Tracing i 4K nie zostawia suchej nitki nawet na takiej konstrukcji. Tutaj przy standardowych zegarach notujemy pobór rzędu 250-260 W. Z kolei po overclockingu wartość ta zwiększa się dość znacząco i potrafi przerzucić zawrotne 310 W. Furmark znany też jako lewitujący pączuszek potrafi przebijać ścianę poboru 320 W. Oczywiście OC karty daje nam spory wzrost wydajności, ale i ciepła.
Przez to nawet moja obudowa Cooler Master H500P Mesh, która należy do jednych z najbardziej przewiewnych i pięknych na rynku zaczyna mieć trudności w utrzymaniu karty poniżej 80 stopni Celsjusza. Tutaj po dłuższych sesjach i na pełnym OC GPU dobija nawet 85 stopni. Oczywiście jest to w dalszym ciągu przy standardowych ustawieniach wentylatorów karty. Tę można słowaczkiem zachęcić do żwawszej pracy, co pozwala utrzymać już akceptowalne temperatury nawet po overclockingu. Taki manewr naturalnie idzie w parze z większym hałasem. Jednakże jeśli ktoś serio ma potrzebę pchać 2080 Ti tak mocno, to chyba gra też w dobrych wygłuszających słuchawkach, jak na profesjonalistę przystało. Jeszcze gdyście byli ciekawi to pobór przy zwykłej pracy Windows się waha się w okolicach 52 W.
Dobrze, sporo tych wykresów i danych, ale bez obawy zbliżamy się już powoli do końca i niespodzianka coraz bliżej. Jeszcze tylko szybki rzut oka na GTA V. Tutaj chyba nikt nie będzie jakoś mega zaskoczony z wyników zważywszy, że jest to starszy tytuł, którego optymalizacja pozostawia wiele do życzenia. Z jednej strony widać, że podkręcając procesor uzyskujemy wyższą średnią ilość klatek. Z drugiej strony zaś obciążenie procesora nawet w 1080p waha się pomiędzy 25 a 50%. Jest to jawny dowód na to, że GTA V nie jest w stanie wykorzystać potencjału drzemyącego w ośmiordzeniowym 16-wątkowym Ryzenie i tylko wysoki zegar ją zadowala.
Nie żeby te 100 klatek to było jakoś źle, ale zarówno procesor jak i karta graficzna są dalekie od pełnej utylizacji. Pozostajmy ci już tylko nadzieję, że GTA VI będzie lepiej temat ogarniało. Pytanie tylko ile lat przyjdzie nam na nią czekać. Dobrze więc, omówienia gier mamy już za sobą inacze czas na szokujący twist, którego nikt się nie spodziewał. Otóż, ilu z was zwróciło uwagę na fakt, że wszystkie testy po overclockingu procesora przeprowadziły na 3,9 GHz? Pytanie, dlaczego tak mało? Przecież kilka miesięcy temu wcześniej, przy okazji filmiku instruktażowego o podkręceniu Ryzena, dość łatwo uzyskałem w pełni stabilny zegar w 4 GHz, a w gamemode nawet 4,15 GHz.
Przy pracy nad tym filmem, gdy przeprowadzałem pierwsze testy z zegarem 4 GHz coś mi mocno, ale to mocno tutaj nie pasowało. Spójrzcie na to i wiem, po trzeba chwilę aby to przetrawić. Żeby za mocno nie mieszać skupcie się póki co tylko na rozdzielczości Full HD, czyli pierwszy zestaw trzech słupków. Pierwszy przelot bez podkręcenia w 1080p wygląda jak trzeba. Tu jest akurat wszystko ok. Lecz gdy zejdziemy oczko niżej i popatrzymy na podkręcony procesor do 4 GHz widzimy, że jak średnia ilość klatek wzrosła, tak jeden i 0,1% leży, kwiczy i umiera. Tak ogromne spadki ilości klatek w żadnym razie nie są pożądanym zachowaniem. Sytuacja ta się ciągnie i ciągnie dla wszystkich pozostałych rozdzielczości.
W 4K podkręcenie procesora z 3 i 7 na 4 GHz owocuje spadkiem już nie tylko tych najniższych FPS-ów, ale także średniej ilości klatek. Jest to dowodem na to, że podkręcenie procesora nie tylko jest nieopłacane w tym momencie, ale wręcz szkodliwe dla gameplayu. Część z Was może teraz powiedzieć, Paweł, co mi obchodzą jakieś tam tabelki, co mi teraz wyświetlasz? Ja chcę grać i to jest dla mnie najważniejsze. Jeśli ktoś z Was tak pomyślał, to już pędzał z wyjaśnieniem, że te słupki pokazujące średnią z najniższych klatek nie są widoczne tylko tutaj w testach, ale spadki te zauważalne są gołym okiem w czasie grania.
Mówiąc po chłopsku, to gdy podkręciłem procesor do 4 GHz to gra co chwila się przycina. Tak autentycznie co kilka, kilkanaście sekund było perfidne ścięcie. Gdy wróciłem do bazowego zegara problem znikł. Oczywiście, że wielokrotnie weryfikowałem te dane, przeinstalowałem sterowniki, ubiłem wszystkie zbędne procesy w tle, wykonałem kilka restartów, aktualizacji, sprawdziłem rezultaty na kilku innych grach. Dalej to samo. Ogólnie rzecz biorąc trochę mnie to zatkało i pomyślałem, że nie zaszkodzi podpytać o przyczynę kogoś, kto w temacie overclockingu siedzi bardzo głęboko. Dlatego skontaktowałem się z Konradem z Extreme Hardware. Jest to prawdopodobnie najwybitniejsza grupa zajmująca się ekstremalnym podkręcaniem w Polsce. Przesłałem swoje dane oraz spostrzeżenia prosząc o wskazówkę. Konrad odpisał mi z podaniem przyczyny.
Stwierdził, że jest to wina niestabilnego OC. Pomyślałem, że jak dla mnie to trochę bez sensu. Jak może być niestabilne, skoro po złożeniu komputera wszystko w grach było ok, a żadne spadki przecież nie miały miejsca. Wykonałem wtedy też wszystkie przeloty w Prime95, w OCCT, w Cinebench, a wiele godzin renderowania udowodniło, że OC mojego Ryzena na 4GHz było stabilne.
No właśnie, ale czy słowo było może być tu kluczowe? Skoro od ostatnich testów mam dalej tę samą płytę główną, to samo chłodzenie, te same ustawienia w BIOS-ie z tym samym napięciem to co niby miałoby się zmienić? No cóż, pomyślałem, no ale testy te wykonałem i jakie wielkie było moje zdziwienie, gdy komputer wykrzaczał się na Prime95, OCCT, czy nawet od czasu do czasu na którymś przelocie w Cinebench. Zapadła groza. Czyżbym na własnej skórze doświadczył degradacji procesora? Czy koniec jest bliski, mój Ryzen umiera? Czy za kilka miesięcy będę musiał go zakopać w ogródku? Hmm, w przerażeniu odnalazłem wątki w sieci, gdzie część użytkowników potwierdziła moje najstraszniejsze obawy, doświadczając tych samych problemów.
Jak kiedyś ustawiony zegar śmigał, że miło, tak teraz niechuchu. W ich przypadku nawet podbijanie napięcia zdawało się na nic, aż po prostu musieli się poddać i obniżać taktowanie. No to teraz zabiłem wam klina. Czy procesory AMD przedwcześnie się kończą? Czyżby Ryzeny były jakieś wybrakowane? Z takim osądem absolutnie nie ma co wyskakiwać. Przynajmniej jeszcze nie. Owszem, taka możliwość istnieje, ale jedna jaskółka wiosny nie czyni. Może egzemplarz, którymi się trafił jest 1 na 10, a może 1 na 100 tysięcy. Z drugiej strony AMD na pudełeczku ślicznie podaje, że bazowy zegar to 3,60 GHz, a w specyfikacji piszą, że XFR, czyli podbicie do 3,7 może nastąpić w sprzyjających warunkach. Może.
Co wcale nie oznacza, że musi. Zanim do takiego taktowania spadnę to pewnie minie jeszcze kilka kolejnych lat. Jeśli w ogóle. Niemniej jednak moim świętym obowiązkiem jest mówić wam prawdę. Samą prawdę i tylko prawdę. Tak jak powiedziałam już wcześniej, szanuję waszą inteligencję i wierzę, że wyciągniecie też własne konkluzje z przedstawionych przeze mnie tutaj faktów. A te widzicie jakie są. Podkręcony procesor do 4 GHz kiedyś problemów nie robił, teraz powoduje jakieś lagi. Może gry wcale się nie zawieszają, ale są widoczne momenty, kiedy procesor jakby staje w ryty i nie wie co jest grane. A to daje się oczuć podczas zwykłego codziennego gamingu. Tak więc ziarno niepewności zostało zasiane.
Niemniej szaluz tego robić jeszcze nie powinniśmy. Aby móc jednoznacznie stwierdzić, że w Ryzenach przedwcześnie dochodzi do degradacji należałoby przeprowadzić testy w ściśle kontrolowanych warunkach na wielu, wielu egzemplarzach i test benchach. Po takich badaniach można by było dopiero coś stwierdzić na pewno. Na dodatek od czasu ustawizowania OC mojej sztuki było kilka aktualizacji BIOS-u. Był cały szał związany ze Spectrum i Meltdown, co oczywiście mogło mieć wpływ, ale raczej bardziej na wydajność, a nie na możliwość utrzymania taktowań przy tym samym napięciu. Tak więc w temacie degradacji póki co pewności mieć nie mogę, ale jeżeli za kilka miesięcy znowu będę zmuszon do dalszego zrzucenia zegarów to będzie już jakimś dowodem.
Może Wy mać jakieś przemyślenia na ten temat? Czy zauważyliście także w swoich procesorach, że sufit im się powolutku obniża? Jeśli tak to chętnie poczytam o Waszych doświadczeniach w komentarzach. W każdym razie podjęliśmy się dzisiaj kilku naprawdę w zawiłych tematów łączących się w jedną spójną całość. Ustaliliśmy, że trąbienie o umieraniu RTX-u było zlekkie przesadzone. Dowiedzieliśmy się o tym, że nawet sprzęt z najwyższej klasy też może zaniemóc w pierwszych 20 sekundach życia, chociaż dalej przyczyna nie jest do końca jasna. Wyjaśniliśmy też niemożność wykonania testów gier w 4K. Wszystkie te poboczne tematy miały posłużyć nam w celu wyciągnięcia konkretnych wniosków i odpowiedzieć na pytanie zawarte w tytule filmu.
Czyli czy łączenie RTX-a 2080 Ti z Ryzenem ma sens? Otóż moim zdaniem tak. Jeśli mam zwrócić uwagę na całość to jak najbardziej tak. Ma to wiele sensu. Oczywiście spiknięcie RTX-a z mocniejszą platformą Intela da kilka dodatkowych klatek. To jest w 100% prawdą, ale to ma sens jedynie dla tych, którzy nie liczą się z kosztami, dla których ekonomiczność zakupu nie ma najmniejszego znaczenia i chcą wydajności za wszelką cenę. Mówiąc o ekonomiczności mam tutaj na myśli nie tylko niższą cenę zbudowania skrzynki z Ryzenem, ale sam fakt, że AMD obiecało wspierać podstawkę AM4 przez dość długi okres.
W tym czasie na jednej płycie głównej można sobie przejść trzy, może nawet cztery generacje Ryzenów, gdzie Intel najlepiej co roku kazałby sobie płacić za upgrade, co jest absolutnie nieuzasadnione i zalatuje czystą chciwością. Reasumując to owszem, moja platforma oparta na najstarszym Ryzenie jest wąskim gardłem dla nowego RTX-a, ale tylko w niskich rozdzielczościach i to nie jakoś drastycznie bardzo. Z kolei różnica w rozdzielczości 4K praktycznie wcale nie istnieje. A skoro już od dwóch lat mam 32-calowy monitor z natywną rozdzielczością 4K to mogę grać równie komfortowo, co użytkowani w 3-krotnie droższej platformy opartej na Intelu 9900K.
Tak jak powiedziałem wcześniej, za taką różnicę można sobie kupić nowy, wypasiony monitor z Adaptive Sync, który teraz jest wspierany także przez Nvidia. Kiedyś, gdy kupowałem swój monitor, producent nawet się nie przyznawał do tego, że wspiera on technologię zmiennego odświeżania. To tu miłe zaskoczenie. Po aktualizacji sterowników Nvidia mogę włączyć nawet kompatybilność z G-Sync. Czajcie jaki bajer. No i tym miłym akcentem będę się już z Wami powoli żegnał. Chciałbym jeszcze przeprosić, że film ten był aż tak długi i wiem, że YouTube społeczność preferuje 5-minutowe materiały. Jeśli pomimo długości ten Ci się podobał, pamiętaj o łapce, udostępnieniu go dalej, a także komentarzu, bowiem każdy jeden czytam.
Co do trzeciej części z tej serii, to nie wiem jeszcze czy takowa się pojawi. Jeśli chcielibyście kolejną, to dajcie znać. Może w niej udałoby się wsadzić Razer na trzeciej generacji i byśmy zrobili te same testy tylko na innym procku. To mogłoby być bardzo ciekawe, tak sprawdzić jak daleko uda się zajechać na jednej, dość przeciętnej płycie głównej. Chyba, że macie inne propozycje, jeśli tak to napiszcie poniżej. Dziękuję za wysłuchanie do końca. Mówił do Was Paweł. Trzymajcie się. Cześć. .
By visiting or using our website, you agree that our website or the websites of our partners may use cookies to store information for the purpose of delivering better, faster, and more secure services, as well as for marketing purposes.