Dowiedzcie się, jakie są największe zalety uniwersalnej, skalowalnej i łatwej do ulepszenia architektury GCN firmy AMD.
Dowiedzcie się, jakie są największe zalety uniwersalnej, skalowalnej i łatwej do ulepszenia architektury GCN firmy AMD.
Kupując nowe karty graficzne, zazwyczaj myślimy, iż mamy do czynienia z zupełnie nowymi, często niepowiązanymi ze sobą rozwiązaniami. Przecież to kolejna seria z nowymi numerami, materiały reklamowe mówią o nowościach i większej wydajności, a niektórzy bardziej dociekliwi docierają nawet do nazw chipsetów - także zupełnie nowych, jak choćby w przypadku najnowszego dziecka AMD, czyli Fiji. I jest w tym sporo prawdy, bo owszem - nowe karty są szybsze, nowocześniejsze i nierzadko mocno różnią się od poprzedniczek pod względem konstrukcji.
Nie oznacza to jednak, że muszą być wyrwane z technologicznego kontekstu. Dobrym przykładem jest tutaj taktyka stosowana od lat przez AMD, które już w 2006 roku postanowiło oprzeć swoje konstrukcje kart graficznych na jednej architekturze - TeraScale. Począwszy od serii Radeon HD 2000 a skończywszy na HD 6000, wszystkie modele chipsetów i kart budowane były w oparciu o kolejne wersje tej samej architektury. Jednak dopiero wprowadzenie w 2011 roku zupełnie nowej architektury Graphics Core Next pozwoliło firmie rozwinąć skrzydła. Możecie w tym miejscu zapytać - i jest to całkiem naturalne - co dobrego jest w stosowaniu przez kilka lat tej samej bazowej "platformy"? Otóż o wiele więcej, niż większość z nas przypuszcza.
Unifikacja pewnych rozwiązań oznacza przede wszystkim dwie rzeczy - ogromną uniwersalność i równie dużą kompatybilność. Oczywiście architektura taka musi spełniać kilka istotnych warunków: powinna być skalowalna i rozwojowa, pozbawiona wszelakich "ślepych uliczek"; być bardziej wyznacznikiem kierunku rozwoju technologii, niż zamkniętym, skończonym rozwiązaniem. Przedsmak tego mieliśmy już w przypadku wspomnianego TeraScale, ale właśnie GCN jest tego doskonałym wręcz przykładem.
Architektura Graphics Core Next zadebiutowała już w 2011 roku wraz z premierą układów z serii Radeon HD 7000 i jeszcze przed oficjalną premierą wzbudziła ogromne zainteresowanie prasy fachowej oraz użytkowników. Nic w tym dziwnego - zarówno w teorii, jak i praktyce nowe rozwiązanie AMD znacznie lepiej, niż jakiekolwiek inne obecne na rynku potrafiło wykorzystać ogrom potencjału tkwiącego w coraz szybszych GPU. Co ciekawe, wielu ekspertów i sam producent twierdzili, że prawdziwy potencjał GCN zostanie nam objawiony dopiero w przyszłości. Takie obietnice słyszeliśmy niejednokrotnie. Tym razem jednak zostały spełnione. Jak więc wygląda obraz tej technologii z perspektywy kilku lat?
GCN w chwili debiutu było podstawą dla typowych, pecetowych kart graficznych dla graczy. W chwili obecnej mamy do czynienia z trzecią już wersją tej architektury (1.2), a układy oparte na GCN znajdziemy już niemal wszędzie, począwszy od popularnych i niedrogich APU, przez konsolowy układ w PS4 i Xbox One, układy w komputerach Apple, a skończywszy na najnowszej rodzinie super-wydajnych kart graficznych Radeon z chipsetem Fiji. W ciągu czterech lat architektura ta rozpowszechniła się w niebywałym stopniu, co zaś najważniejsze, dzięki temu zaczynamy wreszcie wyraźnie dostrzegać wszystkie jej zalety. Przyjrzyjmy się więc im nieco bliżej.
Zacznijmy od tego, co w dłuższej perspektywie czasowej jest najważniejsze dla nas, graczy. Na pewno można liczyć na długie wsparcie dla tej architektury. AMD na pewno jeszcze przez długi czas nie zrezygnuje z GCN, wszak póki co nawet nie zadebiutowały jeszcze wszystkie technologie mogące w pełni wykorzystać jej potencjał, jak choćby DirectX 12. Po drugie układy oparte na GCN są sercami konsol najnowszej generacji, a te jak wiemy zazwyczaj cieszą się długowiecznością na rynku. Do tego dochodzi swoiście "modułowa" formuła architektury, pozwalająca na relatywnie łatwą jej adaptację, czy poszerzanie o nowe technologie, a nie można też zapomnieć o kompatybilności wszystkich generacji sprzętu opartego na GCN.
Graphics Core Next pojawiło się w 2011 roku w Radeonach, zaś w 2013 zadebiutowało w dwóch najpopularniejszych konsolach oraz układach APU. Cztery lata, to w naszej branży naprawdę długi okres, a więc mnóstwo doświadczeń, które zdobyły studia tworzące gry podczas pracy z układami od AMD. Mając do czynienia ze spójną i progresywnie rozwijaną architekturą, twórcom gier o wiele łatwiej wykorzystywać zdobyte umiejętności przy pracy nad kolejnymi tytułami, a co za tym idzie zdecydowanie lepszą ich optymalizacją. Kluczowe znacznie może tutaj również mieć fakt, iż architektura ta wykorzystana została w najnowszych konsolach Sony i Microsoftu. Nie oszukujmy się - większość najlepiej sprzedających się i najpopularniejszych tytułów AAA tworzona jest głównie z myślą o rynku konsolowym. Doświadczenia zdobyte przez twórców gier na tym polu już teraz owocują coraz lepsza optymalizacją silników na konsolach, co przekłada się również na inny, nie mniej ważny aspekt. Zarówno konwersje, jak i kod pisany od nowa dla pecetów powinny równie dobrze działać na komputerach z kartami graficznymi opartymi na GCN.
Nie każdy odczuwa potrzebę wymienia grafiki co dwa lata, a chciałby, by jego karta wciąż mogła radzić sobie z nowymi grami. Kolejna ważną kwestią jest więc duża kompatybilność technologiczna w obrębie całej rodziny kart graficznych wykorzystujących Graphics Core Next. Dzięki temu nawet posiadacze kilkuletnich Radeonów HD 7000 mogą cieszyć się wciąż dużą wydajnością swoich kart, zaś połączenie tej kompatybilności z modułową budową architektury sprawia, że ich GPU mogą korzystać z większości dobrodziejstw pojawiających się na przestrzeni lat, nowych technologii, takich jak chociażby Mantle. Już teraz doskonale widać, że na przykład Radeon R9 290X w chwili obecnej jest znacznie bardziej wydajny, niż jego ówczesny cenowy odpowiednik GeForce GTX 780. Co ciekawe, nie jest wykluczone, że po pojawieniu się DX12 te dysproporcje ulegną zwiększeniu.
Skupmy się teraz na kolejnym ważnym aspekcie architektury Graphics Core Next, czyli jej rozwojowym charakterze. Jest to mocno powiązane z kwestią już wcześniej poruszaną, czyli - użyjmy tu owego uproszczenia -modułowym charakterem GCN. Oznacza to nie mniej, niż zaprojektowanie architektury z myślą o implementowaniu nowych technologii. Ostatnie kilka lat doskonale zresztą pokazuje, jak ten proces przebiegał i przebiegać będzie.
Najważniejszym "kamieniem milowym" było z pewnością wprowadzanie przez AMD własnego API, czyli wspomnianego już Mantle, które w bardzo odczuwalny sposób zwiększyło szeroko pojętą wydajność kart graficznych. Co najważniejsze, zastosowanie tej samej architektury sprawiło, że wydajnościowymi zyskami cieszyć mogli się nie tylko posiadacze najnowszych wówczas kart AMD, ale nawet o kilka lat starszych Radeonów HD 7000. Firma nie zatrzymała się jednak w miejscu i już wkrótce zadebiutuje rozwijany w ramach Khronos Group Vulkan, czyli multiplatformowe API oparte na komponentach Mantle. AMD może z łatwością doposażać GCN w nowe komponenty i technologie, czego przykładami są system renderingu włosów TreesFX, dźwięk przestrzenny TrueAudio, czy opisywane w poprzednim tekście FreeSync, Frame Rate Targeting Control i Virtual Super Revolution. Oczywiście oznacza to tez pełną gotowość GPU AMD na nadejście DirectX 12.
Co nie mniej ważne, polityka AMD zakłada udostępnianie większości tych technologii powiązanych z GCN za darmo wszystkim zainteresowanym. Oznacza to, że nawet w przypadku konieczności implementacji sprzętowej pewnych rozwiązań (np. monitory z FreeSync) każdy producent sprzętu ma nieograniczony dostęp i możliwość wykorzystania technologii. Doskonałym przykładem tego, jak sprawdza się to w praktyce, jest też kolejna kwestia związana z FreeSync. Element tej technologii nazwany Adaptive-Sync stał się już jakiś czas temu częścią ogólnoświatowego standardu DisplayPort. Tak otwarta polityka zaowocuje zapewne w przyszłości kolejnymi podobnymi sytuacjami, co oczywiście powinno oznaczać profity dla posiadaczy sprzętu opartego na Graphics Core Next.
Na koniec pozostawiliśmy kwestię najważniejszą. GCN to przede wszystkim architektura przyszłościowa. Już kilka poruszonych powyżej tematów dobrze to udowadnia, jednak najlepiej widać to właśnie teraz, w erze coraz popularniejszego grania w rozdzielczościach większych niż 1080p, czyli standardowe Full HD. O ile bowiem w tym przypadku karty oparte na GCN są porównywalne z konkurencyjnymi odpowiednikami, o tyle zazwyczaj bez problemów osiągają lepsze rezultaty w 1440p i przede wszystkim wyznaczającej nowe standardy 4K. A pamiętajmy, że czeka nas wkrótce "rewolucja VR", w której ta przewaga może się okazać kluczowa.
Warto również wspomnieć o jeszcze jednym istotnym z punktu widzenia nas graczy aspekcie. Rozwój GCN i wykorzystanie technologii takich jak Mantle sprawia, że dużo rzadziej użytkownik zmuszany jest do szukania i instalowania nowych sterowników, co jest obecnie już niemal plagą w przypadku najważniejszych tytułów. O ile nie zajdą jakieś nieprzewidziane okoliczności, takie jak w przypadku ostatniego Batmana, czy Project Cars (co zresztą leży po stronie twórców), użytkownicy kart opartych na GCN mogą cieszyć się ich maksymalną wydajnością bez ciągłego ściągania i instalowania nowych sterowników. Nie ma też zatem ryzyka, że poprzednia generacja kart zostanie szybko zapomniana i będzie odstawała wydajnościowo.
Tekst powstał jako część wspólnej akcji marketingowej AMD i gram.pl