Recenzja RTX 4070: Idealny procesor graficzny dla osób, które mają ochotę na kartę graficzną

Recenzja RTX 4070: Idealny procesor graficzny dla osób, które mają ochotę na kartę graficzną

Karta GeForce RTX 4070 firmy Nvidia jest już dostępna. Jest to pierwsza od ponad roku premiera karty graficznej firmy, którą można protekcjonalnie nazwać „głównym nurtem” zarówno pod względem wydajności, jak i ceny. Kosztuje 600 dolarów.

Nieproduktywne jest ciągłe wracanie do GTX 1080 za 600 USD, w tamtym czasie najszybszej karty graficznej, jaką można było kupić gdziekolwiek i od kogokolwiek, i zastanawianie się, jak doszliśmy do tego punktu (częściowo to inflacja, nie wszystko ) . Ale robię to, aby przypomnieć, że 600 USD to wciąż więcej niż to, co wiele osób płaci za cały komputer, tablet, smartfon lub wysokiej klasy konsolę do gier. Żaden inny komponent komputera do gier nie odnotował takiego wzrostu cen w tym samym okresie; procesor Core i5 kosztował około 200 USD w 2016 r., a teraz kosztuje około 200 USD, a pamięć RAM i dyski SSD są obecnie historycznie tanie.

Patrzenie na 4070 jest zarówno pod wrażeniem tego produktu jako produktu, jak i jednocześnie frustracji warunkami, które doprowadziły nas do „imponującej” karty graficznej średniej klasy za 600 USD. Jest dość szybki, bardzo wydajny i znacznie bardziej rozsądny niż inne najnowsze procesory graficzne Nvidia. Na dzisiejszym odwróconym rynku kart graficznych nazwałbym to nawet dobrą okazją. Ale jeśli wciąż tęsknisz za dniami, w których możesz wydać 300 USD lub mniej na rozsądnie wydajny procesor graficzny z najnowszą architekturą i nowoczesnymi funkcjami, poczekaj.

Aktualizacja serii RTX 4070 i 40

Testowana przez nas karta Founders Edition RTX 4070 jest znacznie mniejsza pod każdym względem niż modele Founders Edition RTX 4080 i RTX 4090, a także większość kart 4070/4070 Ti/4080/4090 od partnerów Nvidii. Dwugniazdowy procesor graficzny ma zaledwie 240 mm długości (w porównaniu z 310 mm w modelach 4080/4090) i 40 mm wysokości (w porównaniu z 61 mm). Nie licząc dodatkowej przestrzeni zajmowanej przez 8-pinowe złącze zasilania 12VHPWR, które wciąż jest dość nieporęczne, mimo że wymaga tylko pary 8-pinowych złączy zamiast trzech lub czterech. Ale wciąż jest to karta wystarczająco mała, aby zmieścić się w niemal każdej obudowie komputera PC, w tym w gotowych mini-wieżach OEM i małych niestandardowych konstrukcjach ITX.

RTX 4070 ma wiele wspólnego z 4070 Ti, procesorem graficznym pierwotnie nazywanym „RTX 4080 12 GB”, zanim został „wyłączony” i ponownie uruchomiony. Wykorzystują tę samą matrycę GPU AD104, mniejszy układ niż flagowy AD102 używany w RTX 4090 lub AD103 używany w serii 4080. Używają również 12 GB pamięci GDDR6X na 192-bitowym interfejsie. 4070 ma mniej rdzeni CUDA (5888 w porównaniu do 7680), ale 4070 i 4070 Ti są znacznie bardziej podobne niż karty RTX 4080 16 GB i 12 GB.

Ten 192-bitowy interfejs pamięci jest węższy niż 256-bitowy interfejs używany przez 3070 i 3070 Ti, co Nvidia nadrobiła, dodając 32 MB dodatkowej pamięci podręcznej L2 do 4070 (łącznie 36 MB). Ta pamięć podręczna i znacznie wyższe taktowanie bazowe i przyspieszone to największe ulepszenia 4070 w stosunku do kart ostatniej generacji.

RTX4090 RTX4080 RTX 4070Ti RTX4070 RTX 3080Ti RTX3080 10 GB RTX 3070Ti RTX3070 RTX3060
rdzenie CUDA 16 384 9728 7680 5888 10 240 8704 6144 5888 3584
Zwiększenie zegara 2520MHz 2505MHz 2610MHz 2475MHz 1665MHz 1710MHz 1765MHz 1725MHz 1777MHz
Szerokość magistrali pamięci 384-bitowy 256-bitowy 192 bity 192 bity 384-bitowy 320 bitów 256-bitowy 256-bitowy 192 bity
Taktowanie pamięci 1313MHz 1400MHz 1313MHz 1313MHz 1188MHz 1188MHz 1188MHz 1750MHz 1875MHz
Pamięć 24 GB GDDR6X 16 GB GDDR6X 12 GB GDDR6X 12 GB GDDR6X 12 GB GDDR6X 10 GB GDDR6X 8 GB GDDR6X 8 GB GDDR6 12 GB GDDR6
THP 450 W 320 W 285 W 200 W 350 W 320 W 290 W 220 W 170 W

Ponieważ wykorzystuje tę samą architekturę Ada Lovelace, co inne procesory graficzne RTX 4000, RTX 4070 obsługuje również nowy DLSS 3 Nvidii i powiązane funkcje DLSS Frame Generation (DLSS FG). DLSS to skalowanie wspomagane przez sztuczną inteligencję, które pobiera obraz o niższej rozdzielczości generowany przez GPU i skaluje go w górę, poprawiając liczbę klatek na sekundę w wysokiej rozdzielczości przy stosunkowo niewielkiej utracie szczegółów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *