Wszystko, co powinniśmy wiedzieć o architekturze Turing kart grafiki Nvidii oraz generacji GeForce RTX i jakie ma ona znaczenie dla nas, graczy.
Wiele wskazuje na to, że dwa najważniejsze dni w tegorocznym kalendarzu Nvidii mamy już za sobą. Pierwszym z nich jest bez wątpienia prezentacja architektury Turing podczas tegorocznego Siggraph w Vancouver, a drugim poprzedzające targi gamescom 2018 GeForce Gaming Celebration, na którym zaprezentowano pierwsze modele konsumenckich kart grafiki korzystających z nowej technologii - GeForce RTX. Te ostatnie pojawią się na rynku za niespełna miesiąc i chociaż producent zapewnia, że przeskok wydajności jest największym w historii, to bez niezależnych testów na materiale, który interesuje nas najbardziej - grach - możemy powstrzymać hurra optymizm.
Jecdnocześnie warto zaznaczyć, że zgodnie z informacjami ujawnionymi przez Jensena Huanga platforma RTX to owoc trwających ponad 10 lat prac inżynierów Nvidii. Tym samym nietrudno zgadnąć, że będzie ona punktem wyjścia dla kolejnych nowinek w zakresie kart grafiki, więc niezależnie od tego, czy zmierzacie w najbliższym czasie sięgnąć do kieszeni po okrągłą sumkę na świeżego RTX-a, czy wystarczy Wam dotychczasowy sprzęt, warto poznać garść podstawowych informacji związanych z najnowszymi chipami ze stajni Zielonych.
Czym jest Nvidia Turing?
Turing to najnowsza, ósma generacja procesorów graficznych (GPU) opracowanych przez firmę Nvidia, którą obok potężniejszej jednostki obliczeniowej wyposażono także w dwa nowe typy rdzeni — odpowiedzialne za przyspieszenie procesu ray tracingu RT Cores oraz Tensor Cores (dostępne w kartach Volta), które będą wspomagać operacje wykonywane przez sztuczną inteligencję. Najmocniejsze modele kart korzystających z architektury Turing otrzymają procesor o powierzchni aż 754 mm2, który składa się z 16,8 miliarda tranzystorów. Podobnie jak w procesorach klasy Volta, Turing wykorzysta 16-gigabitowe układy pamięci GDDR6 o szybkości do 14 Gb/s.
Zdaniem producenta dzięki korzystaniu z technologii hybrydowego renderowania obrazu poszczególne aplikacje będą mogły wygenerować fizyczny świat nawet sześciokrotnie szybciej, niż miało to miejsce w przypadku wydanych w 2016 roku Pascali. Z nowymi rdzeniami powiązana jest bezpośrednio platforma RTX.
RT Cores
Procesory dedykowane technologii ray tracing, czyli technice generowania fotorealistycznych obrazów trójwymiarowych scen z uwzględnieniem drogi, jaką przebywa każdy pojedynczy promień światła od swojego źródła poprzez wszystkie obiekty, od których odbija się na swojej drodze. Wykorzystanie rdzenia RT pozwala na przyspieszenie obliczeń związanych z ustaleniem, w jaki sposób światło i dźwięk przemieszczają się po trójwymiarowym środowisku z wydajnością do 10 GigaRays/s. Według Nvidii Turing pozwala przeprowadzać operacje związane z ray tracingiem w czasie rzeczywistym do 25 razy szybciej niż dla Pascali, a węzły GPU Turing osiągają do 30 razy większą szybkość w generowaniu końcowej klatki efektów filmowych w porównaniu z węzłami CPU.
Tensor Cores
Procesory odpowiedzialne za przetwarzanie technologii NGX, czyli operacjach wykonywanych podczas uczenia maszynowego, które przyspieszą i usprawnią wyświetlanie obrazu dla wideo, zdjęć czy gier. Zdaniem producenta rdzenie Tensor mogą wykonywać do 500 kwintylionów operacji w każdej sekundzie.
Z perspektywy graczy najciekawszym aspektem tej części chipu Turing jest tzw. DLSS, czyli Deep Learning Super-Sampling. Inżynierowie Nvidii odkryli, w jaki sposób stymulować sieć neuronową AI, aby ta lokalizowała nierówne krawędzie wyświetlane na scenie i aktywowała proces wysokiej jakości anti-aliasingu, by dobrać najlepszy możliwy kolor dla poszczególnego piksela. W ten sposób usuwane są wszelkie nierówności, co znacząco podnosi jakość wyświetlanej klatki. Mówiąc w skrócie, AI zapamiętuje wygląd wygładzonych klatek, by przenosić te doświadczenia na kolejne sceny, a im więcej różnorodnych scen zostanie przeanalizowanych przez zaimplementowaną w rdzeniu AI, tym lepsze rezultaty w wygładzaniu krawędzi będzie osiągać.
Obok DLSS rdzenie Tensor obsługują takie funkcje jak:
AI InPainting (AI uzupełnia brakujące elementy obrazka wygenerowaną przez siebie alternatywną zawartością);
AI Slow-Mo (technologia pozwalająca na płynne wyświetlnie wideo odtworzonego w zwolnionym tempie — AI analizuje poszczególne klatki, badając ich zawartość, by wygenerować klatki pomiędzy tymi istniejącymi w oryginalnym materiale wideo);
AI Up-Res (technologia podnosząca jakość przeskalowanych w górę obrazów — AI tworzy nowe piksele, interpretując zawartość obrazka i odpowiednio zarządzając zebranymi informacjami).
Platforma RTX
GramTV przedstawia:
Zestaw oprogramowania i narzędzi deweloperskich, które mają pomóc w lepszym wykorzystaniu potencjału kart grafiki bazujących na architekturze Turing zarówno w zastosowaniach profesjonalnych (zdjęcia, obrazy, materiały wideo), jak i grach komputerowych. Odnosi się to do następujących procesów:
Śledzenia promieni — ray tracing (OptiX, Microsoft DXR oraz Vulkan);
Przetwarzanych przez AI (NGX);
Rasteryzacja (Advanced Shaders);
Symulacja fizyki (CUDA 10, PhysX, Flex);
Zunifikowanie danych o formacie poszczególnych assetów (USD, MDL).
Karty grafiki bazujące na architekturze Turing
W chwili pisania niniejszego tekstu firma Nvidia ogłosiła sześć modeli kart grafiki wykorzystujących możliwości architektury Turing - ujawnione podczas Siggraph karty Quadro RTX dedykowane zastosowaniom profesjonalnym oraz przeznaczone na rynek konsumencki karty GeForce RTX zaprezentowane podczas GeForce Gaming Celebration.
Nvidia Turing a gry?
Tak jak wcześniej wspomniałem, do czasu przeprowadzenia niezależnych testów ciężko ocenić jak dalece mozliwości kart grafiki na architekturze Turing będą rewolucyjne dla pecetowego grania. Podczas GeForce Gaming Celebration Nvidia zaprezentowała kilka zwiastunów i fragmentów rozgrywki, na których możemy się przekonać, czym właściwie jest ray tracing. Trudno natomiast ocenić czy mające zadebiutować 20 września karty GeForce RTX będą w stanie zapewnić płynną rozgrywkę z włączonym Nvidia RTX przy wysokich rozdzielczościach.
Producent ujawnił jednak grafiki prezentujące przeprowadzone przez niego testy na GeForce RTX 2080. Na powyższym obrazku zaprezentowano wydajność rzeczonej karty grafiki w poszczególnych grach przy rozdzielczości 4K, dynamicznym oświetleniu HDR i częstotliwości odświeżania na poziomie 60 Hz. Pod każdą z gier umieszczono liczbę FPS osiągniętą podczas testów.
Powyższy wykres prezentuje za to wzrost wydajności pomiędzy poszczególnymi generacjami kart grafiki w wybranych grach. Łatwo zauważyć spory skok pomiędzy sprzętem korzystającym z architektury Pascal a tym bazującym na Turingu. Podczas testów okazało się, że uruchomienie omówionej wcześniej technologii DLSS w kompatybilnych z nią tytułach pozwoliło na uzyskanie jeszcze większej wydajności.
Oczywiście są to jedynie materiały poglądowe, wszystko wyjaśni się, gdy recenzenci otrzymają egzemplarze testowe. Warto jednak mieć na uwadze, że nowe funkcje kart Nvidii mimo ogromu włożonych w nie prac, nadal wymagają sporo uwagi i pojawią się na rynku raczej, żeby przetrzeć szlak przed nadejściem kolejnej, usprawnionej jeszcze generacji. Pozostaje czekać na testy oraz nieco przystępniejsze ceny i mieć nadzieję, że karty Nvidia RTX 2xxx znacząco umilą nam oczekiwanie na dziewiątą generację GPU Zielonych.
Nvidia porównuje GTX 1080 z RTX 2080, czyli karty za odpowiednio 2300 i 3900 zł. Gdzie tu jest sens? Bardziej stosownym byłoby porównać GTX 1080 Ti z ową kartą, jednak wtedy już słupki nie byłyby takie ładne :)
Headbangerr
Gramowicz
24/08/2018 01:56
Mnie bardziej od tych wszystkich bajerów interesuje faktyczny skok wydajnościowy po przesiadce z 1080ti. Benchmarki, gameplaye. 1080ti też był zapowiadany jako 50% bardziej wydajny od 1080, a w praktyce często różnica okazuje się minimalna.