Asus, Gigabyte & MSI: Testissä näytönohjainvalmistajien GeForce GTX 1060 -mallit

07.10.2016 14:33 | Sampsa Kurri | 2542 | 34

aib1060-01

Kesän näytönohjainjulkaisuiden perkaaminen Muropaketissa jatkuu ja nyt vuorossa ovat tehtaalla valmiiksi ylikellotetut GeForce GTX 1060 -mallit, joissa on valmistajien itse suunnittelemat piirilevyt ja jäähdytysratkaisut.

Tutustumme näytönohjaimien ominaisuuksiin sekä testaamme suorituskyvyn, tehonkulutuksen ja melutason sekä grafiikkapiirin lämpötilan. Mukana ovat myös ylikellotustestit.

NVIDIA julkaisi heinäkuussa Pascal-arkkitehtuuriin perustuvan pienemmän GP106-grafiikkapiirin ja sitä käyttävän GeForce GTX 1060-näytönohjaimen. Markkinoilla edullisempia kolmen ja kalliimpia kuuden gigatavun näyttömuistilla varustettuja versioita, jotka eroavat toisistaan myös käytössä olevien CUDA-ytimien määrällä.

Kuuden gigatavun malleissa käytössä on täysi GP106-grafiikkapiiri eli kaikki 10 SM-yksikköä ja 1280 CUDA-ydintä, mutta kolmen gigatavun malleissa käytössä on  9 SM-yksikköä eli 1152 CUDA-ydintä.

Testasimme heti tuoreeltaan Muropaketissa NVIDIAn omaan referenssisuunnitteluun perustuvan GeForce GTX 1060 Founders Edition -mallin, joten tarkemmat yksityiskohdat kannattaa lukea pohjille kyseisestä artikkelista:

Muropaketin testiin saapui Asukselta, Gigabyteltä ja MSI:ltä kuuden gigatavun näyttömuistilla varustetut mallit, joiden hinta Suomessa on noin 350 euroa. Edullisimmillaan 3 gigatavun näyttömuistilla varustettujen mallien hintataso Suomessa on tällä hetkellä alkaen 240 eurosta ja kuuden gigatavun muistilla varustettujen mallien alkaen 290 eurosta.

Sisältö

  1. Alkusanat
  2. Asus ROG Strix GeForce GTX 1060
  3. Gigabyte GeForce GTX 1060 G1 Gaming
  4. MSI GeForce GTX 1060 Gaming X 6G
  5. Näytönohjainvalmistajien GTX 1060 -mallit vastakkain: suorituskyky-, tehonkulutus-, lämpötila- & melumittaukset
  6. Suorituskyky 1920x1080-resoluutiolla
  7. Suorituskyky 2560x1440-resoluutiolla
  8. Ylikellotustestit
  9. Loppuyhteenveto
Keskustelu

Aika heikosti taas noita vertailukortteja mukana, ehkä uusi toimitus saa siihen muutosta :cool: Vastauksena se tuttu fraasi että aiemmassa 1060 testissä niitä oli enempi mutta onko niin raskasta laittaa silti mukaan.

@EnterSandman

En tiedä oliko kommenttisi mustaa huumoria vai odotitko todella isompaa vertailua.

Käsittääkseni tämän revikan pitikin olla vain parin valmistajan tuunattujen 1060 mallien esittely ja kevyt vertailu rx480 custom lappuihin joten testissä oli kummankin valmistajan saman hintaluokan uusia referenssi ja huippumalleja. Korttien erot tuli hyvin esille samoin kuin se että lähes saman hintaiset ratukat on väärässä sarjassa, on näet aika ikävää luettavaa tuo viimeinen kommentti.

"Muropaketin testissä olleet GeForce GTX 1060 -mallit olivat varustettu kuuden gigatavun näyttömuisteilla ja hintataso liikkuu noin 350 eurossa. Testeissä AMD:n leiristä mukana olleen MSI:n Radeon RX 480 Gaming X 8G -näytönohjaimen saa edullisimmillaan noin 30 euroa halvemmalla, mutta siinä ei vääntö riitä kunnolla 2560×1440-resoluutiolla ja Full HD -resoluutiollakin Asuksen ROG Strix GTX 1060 oli useimmissa peleissä selvästi suorituskykyisempi kuin MSI:n RX 480."

^ Eipä AMD:n näyttisten ostamisessa ole järkeä muuta kuin kannatusmielessä. GTX 1050 ja 1050ti taitavat viedä edullisempienkin mallien ostamisesta mielekkyyden hyvin pian. Vegalla olisi kova kiire…

sChoOlmAStEr

Korttien erot tuli hyvin esille samoin kuin se että lähes saman hintaiset ratukat on väärässä sarjassa, on näet aika ikävää luettavaa tuo viimeinen kommentti.

"Muropaketin testissä olleet GeForce GTX 1060 -mallit olivat varustettu kuuden gigatavun näyttömuisteilla ja hintataso liikkuu noin 350 eurossa. Testeissä AMD:n leiristä mukana olleen MSI:n Radeon RX 480 Gaming X 8G -näytönohjaimen saa edullisimmillaan noin 30 euroa halvemmalla, mutta siinä ei vääntö riitä kunnolla 2560×1440-resoluutiolla ja Full HD -resoluutiollakin Asuksen ROG Strix GTX 1060 oli useimmissa peleissä selvästi suorituskykyisempi kuin MSI:n RX 480."[/USER]

Toimituksen tuleva poistuminen näkyy artikkelien tason laskemisena.

Battlefield 4 testattiin DirectX 11 -rajapinnalla

The Witcher 3 testattiin reunojenpehmennyksellä, 16-kertaisella anisotrooppisella suodatuksella, High-tason Postprocessing-asetuksilla ja Ultra-tason kuvanlaatuasetuksilla. NVIDIAn HairWorks-ominaisuus oli pois käytöstä

Doom testattiin OpenGL-rajapinnalla

Rise of the Tomb Raider testattiin DirectX 11 -rajapinnalla

Aika surkea esitys täytyy sanoa.

Kuningashillo^2

^ Eipä AMD:n näyttisten ostamisessa ole järkeä muuta kuin kannatusmielessä. GTX 1050 ja 1050ti taitavat viedä edullisempienkin mallien ostamisesta mielekkyyden hyvin pian. Vegalla olisi kova kiire…

Kommentti kuvaa hyvin Nvidia trollien älykkyystasoa :rolleyes:

C64Ever

Kommentti kuvaa hyvin Nvidia trollien älykkyystasoa :rolleyes:

Hieno kommentti. Jospa keskittyisit vastaväitteen esittämiseen henkilökohtaisen hyökkäyksen sijaan. Koska älykkyystasoni on mielestäsi niin matala sen ei pitäisi olla vaikeaa.

ps. En ole mikään varsinainen Nvidia fani vaan ostan tilanteen mukaan hinta/laatu-suhteeltaan parasta rautaa. AMD:ltä sitä ei ole tullut ulos vuosiin.

Kuningashillo^2

Hieno kommentti. Jospa keskittyisit vastaväitteen esittämiseen henkilökohtaisen hyökkäyksen sijaan. Koska älykkyystasoni on mielestäsi niin matala sen ei pitäisi olla vaikeaa.

Taisi osua arvio oikeaan koska koko viestin lukeminen on niin vaikeaa ;)

C64Ever

Taisi osua arvio oikeaan koska koko viestin lukeminen on niin vaikeaa ;)

Pakko kysyä, miksi olet aikaisemmassa viestissäsi kiinnittänyt erityistä huomiota tuohon HairWorks -sanaan? Vai jäikö lukematta sen jälkeiset pari sanaa (voin lainata omasta viestistäsi: "NVIDIAn HairWorks-ominaisuus oli pois käytöstä")

Muuten ei viestiisi ole vastaväitteitä, mutta häiritsi tuo kommentti lukemisen vaikeudesta, kun näyttää se itsellesikin tuottavan ongelmia…?

Ja sitten itse artikkeliin. Olisin itse toivonut, että testissä olisi ollut mukana myös evga:n lyhyt kortti. Etenkin sen kellotettavuutta ja äänekkyyttä etsiskelin. Onhan siitä jo useampikin revikka olemassa, mutta toivoin, että olisi myös täältä löytynyt, kun täällä tuo "testipenkki" on juurikin sellainen, josta tuloksia haeskelen.

Asdidasdi

Pakko kysyä, miksi olet aikaisemmassa viestissäsi kiinnittänyt erityistä huomiota tuohon HairWorks -sanaan? Vai jäikö lukematta sen jälkeiset pari sanaa (voin lainata omasta viestistäsi: "NVIDIAn HairWorks-ominaisuus oli pois käytöstä")

Muuten ei viestiisi ole vastaväitteitä, mutta häiritsi tuo kommentti lukemisen vaikeudesta, kun näyttää se itsellesikin tuottavan ongelmia…?

Ja sitten itse artikkeliin. Olisin itse toivonut, että testissä olisi ollut mukana myös evga:n lyhyt kortti. Etenkin sen kellotettavuutta ja äänekkyyttä etsiskelin. Onhan siitä jo useampikin revikka olemassa, mutta toivoin, että olisi myös täältä löytynyt, kun täällä tuo "testipenkki" on juurikin sellainen, josta tuloksia haeskelen.

EVGA ei ole hirvittävän aktiivinen ollut Suomen markkinoilla, toivottavasti panostavat enemmän tulevaisuudessa.

Strixin jäähdytysratkaisu on kyllä aika tuuhea viritys; viisi lämpöputkea joista vain kaksi on kosketuksissa grafiikkapiiriin. Twinfrozer nikkelöidyllä kuparipohjalla ja kolmella lämpöputkella käy yhtä viileänä, mutta alemmalla melutasolla.

Asdidasdi

Pakko kysyä, miksi olet aikaisemmassa viestissäsi kiinnittänyt erityistä huomiota tuohon HairWorks -sanaan? Vai jäikö lukematta sen jälkeiset pari sanaa (voin lainata omasta viestistäsi: "NVIDIAn HairWorks-ominaisuus oli pois käytöstä")

Muuten ei viestiisi ole vastaväitteitä, mutta häiritsi tuo kommentti lukemisen vaikeudesta, kun näyttää se itsellesikin tuottavan ongelmia…?

Hairworks on osa Gameworksia joten pelkkä Hairworksin ottaminen pois päältä ei riitä ottamaan pois päältä Gameworksia. Koska pelissä on Hairworks, siinä on varmasti muutakin Gameworks roskaa kuin pelkästään Hairworks.

Juuri tuon takia oli vain sana Hairworks lihavoituna.

Koko artikkelihan ei ole juuri muuta kuin Nvidian maksama mainos.

C64Ever

Toimituksen tuleva poistuminen näkyy artikkelien tason laskemisena.

C64Ever

Koko artikkelihan ei ole juuri muuta kuin Nvidian maksama mainos.

:facepalm:

"Kaikki irti polariksesta" jutun tuloksien perusteella tiedettiin jo että tämän artikkelin voittaja(t) ei tule kenellekään yllätyksenä.

sChoOlmAStEr

:facepalm:

"Kaikki irti polariksesta" jutun tuloksien perusteella tiedettiin jo että tämän artikkelin voittaja(t) ei tule kenellekään yllätyksenä.

Faktahan on se ettei Nvidialla ole teknisellä puolella mitään jakoja AMD:ta vastaan, joten Nvidia fanit yrittävät esittää Nvidian hyvässä valossa käyttämällä vuoden 2003 rajapinnan viriteltyä versiota kehittyneempien rajapintojen sijaan.

Kerro syy miksi tässä uutisessa keskusteltuun artikkeliin valittiin linkittämästäsi artikkelista kuvaksi tuo

[​IMG]

Eikä tuota

[​IMG]

Ainoa järkevä selitys on pakonomainen tarve saada Nvidia näyttämään paremmalta.

C64Ever

Faktahan on se ettei Nvidialla ole teknisellä puolella mitään jakoja AMD:ta vastaan, joten Nvidia fanit yrittävät esittää Nvidian hyvässä valossa käyttämällä vuoden 2003 rajapinnan viriteltyä versiota kehittyneempien rajapintojen sijaan.

Jos nyt rauhoittuisit ja lopettaisit fanittelun. Kerro mieluummin niistä Graphics Core Next (GCN) ihmeistä joilla ratukat nousee suosta.

C64Ever

Kerro syy miksi tässä uutisessa keskusteltuun artikkeliin valittiin linkittämästäsi artikkelista kuvaksi tuo…

Ainoa järkevä selitys on pakonomainen tarve saada Nvidia näyttämään paremmalta.

Tuskinpa, vulkan api on vielä lapsen kengissä ja dx12 pelejä vasta muutama. Näkisin että toimituksen käyttämä testipaletti ei ole puolueellinen koska 99.9% peleistä käyttää vanhempaa dx tai opengl rajapintaa.

sChoOlmAStEr

Jos nyt rauhoittuisit ja lopettaisit fanittelun. Kerro mieluummin niistä Graphics Core Next (GCN) ihmeistä joilla ratukat nousee suosta.

Kuten jo sanoin, GCN arkkitehtuureita ei ole kehitetty vanhentuneille rajapinnoille kuten DirectX 11.

sChoOlmAStEr

Tuskinpa, vulkan api on vielä lapsen kengissä ja dx12 pelejä vasta muutama. Näkisin että toimituksen käyttämä testipaletti ei ole puolueellinen koska 99.9% peleistä käyttää vanhempaa dx tai opengl rajapintaa.

Jos Doomin tapainen suorituskykylisä saadaan "lapsen kengissä" olevalla rajapinnalla, mitä tapahtuu kun saadaan toimiva Vulkan?

Tuolla logiikalla: Koska 99.9 prosentilla käyttäjistä on max 60 Hz virkistystaajuuteen pystyvä näyttö, kaikissa testeissä pitäisi FPS lukita 60 :think:

Näistä 99.9% Opengl tai DirectX 11/vanhempi peleistä 99% pyörii tarpeeksi hyvin jo 100 euron näytönohjaimella, joten panostuksen pitäisi olla uudemmissa peleissä joissa 60 FPS minimi ei ole itsestään selvyys edes 300 euron näytönohjaimella.

C64Ever

Kuten jo sanoin, GCN arkkitehtuureita ei ole kehitetty vanhentuneille rajapinnoille kuten DirectX 11.

Aika kauan sitä on hierottu koska ensimmäiset gcn arkkitehtuuriin perustuvat näytönohjaimet julkaistiin viitisen vuotta sitten ;)

C64Ever

Kerro syy miksi tässä uutisessa keskusteltuun artikkeliin valittiin linkittämästäsi artikkelista kuvaksi tuo

Eikä tuota

Ainoa järkevä selitys on pakonomainen tarve saada Nvidia näyttämään paremmalta.

Tai se, että nvidialla tippuu fps:t kun siirrytään Vulkaniin, niin miksi muut kuin amd-käyttäjät käyttäisivät sitä? Ja kun muistetaan, että Nvidialla on selvästi suurempi markkinaosuus niin on loogista käyttää openGL rajapintaa testeissä. Toki siellä voisi Vulkan-tulokset olla lisäksi, mutta siinä taitaa olla kyseessä resurssipula.

Lisäksi tähän asti ainoassa? dx12-pelissä, eli gow4:ssa nvidia on silti edellä, joten ei se dx12 nyt välttämättä muuta mitään.

sChoOlmAStEr

Aika kauan sitä on hierottu koska ensimmäiset gcn arkkitehtuuriin perustuvat näytönohjaimet julkaistiin viitisen vuotta sitten ;)

Juuri tuon takia Nvidia onkin vuosia jäljessä.

AvatarX

Tai se, että nvidialla tippuu fps:t kun siirrytään Vulkaniin, niin miksi muut kuin amd-käyttäjät käyttäisivät sitä? Ja kun muistetaan, että Nvidialla on selvästi suurempi markkinaosuus niin on loogista käyttää openGL rajapintaa testeissä. Toki siellä voisi Vulkan-tulokset olla lisäksi, mutta siinä taitaa olla kyseessä resurssipula.

Tarkoitat ettei AMD:lla kannattaisi käyttää Vulkania koska Nvidialla FPS:t tippuvat :confused::confused::confused:

Mikäli tutustut asiaan tarkemmin, huomaat tämän "uuden" artikkelin testien olevan copypaste aiemmasta artikkelista, eli "resurssipula" = copypasten puute.

AvatarX

Lisäksi tähän asti ainoassa? dx12-pelissä, eli gow4:ssa nvidia on silti edellä, joten ei se dx12 nyt välttämättä muuta mitään.

Ei ole ainoa DX12 peli. Nvidia saattaa pärjätä DX12/Vulkan peleissä mikäli peli sabotoidaan Nvidian toiveiden mukaisesti hitaaksi AMD:n korteilla. Muuten AMD vie samassa hintaluokassa helposti. Doom ei ole erityisesti AMD:lle eikä Nvidialle optimoitu peli.

[​IMG]

C64Ever

Doom ei ole erityisesti AMD:lle eikä Nvidialle optimoitu peli.

Joo ei, muuten vaan käyttää GCN specificiä extensioneja…

aop

Joo ei, muuten vaan käyttää GCN specificiä extensioneja…

Katso pelin ulkoasua ja tehovaatimuksia? Paremmin koodattu, jos molemmilla leireillä heikompi suorituskyky, mutta nVidia edellä? :facepalm:

aop

Joo ei, muuten vaan käyttää GCN specificiä extensioneja…

Käyttää Vulkania joka hyödyntää AMD:n rautaa selvästi paremmin kuin Nvidian. Eli ei ole AMD:lle erityisesti optimoitu, vaan AMD:n rauta on ylivoimaisesti parempaa.

Näytä kaikki kommentit
C64Ever

Käyttää Vulkania joka hyödyntää AMD:n rautaa selvästi paremmin kuin Nvidian. Eli ei ole AMD:lle erityisesti optimoitu, vaan AMD:n rauta on ylivoimaisesti parempaa.

Tää viestisi paljastaa kyllä aika tehokkaasti, ettet tiedä yhtään mitään mistä puhut.

aop

Tää viestisi paljastaa kyllä aika tehokkaasti, ettet tiedä yhtään mitään mistä puhut.

En ymmärrä myöskään miksi väität Doomia AMD optimoiduksi. Eli mikäli esim Nvidialta kestää pari vuotta saada async shader tuki ajureihinsa tai sen käyttö ei anna suorituskykylisää, async shader tuki pelissä ei tarkoita samaa kuin AMD:lle optimoitu.

Edit: Doom käyttää AMD:n julkaisemia shader extensioneja. Löytyykö Nvidialta mitään vastaavaa? Eipä taida. Vaikea käyttää jotain mitä Nvidia ei tarjoa.

EnterSandman

Aika heikosti taas noita vertailukortteja mukana, ehkä uusi toimitus saa siihen muutosta :cool: Vastauksena se tuttu fraasi että aiemmassa 1060 testissä niitä oli enempi mutta onko niin raskasta laittaa silti mukaan.

En malta odottaa, kuinka massaystävällisempään suuntaan menevässä ja uudistuneessa Murossa on näidenkin näyttisvertailujen sijaan imurit testissä :D

[ot]

C64Ever

Käyttää Vulkania joka hyödyntää AMD:n rautaa selvästi paremmin kuin Nvidian. Eli ei ole AMD:lle erityisesti optimoitu, vaan AMD:n rauta on ylivoimaisesti parempaa.

Kehitys on ilmeisesti pysähtynyt, noin 20 pelin testissä p10 on suurin piirtein tasoissa amd:n 3 vuotta vanhojen hawaii grafiikkapiirien kanssa. Rx480 korttien maksimi (pelikelpoisella) resolla (1080p) vakio 1060:t menee menojaan ja jälkimmäisellä voi pelailla vielä 1440p tarkkuudella.
https://www.techpowerup.com/reviews/ASUS/GTX_1060_STRIX_OC/26.html

Spoiler: muro
C64Ever

En ymmärrä myöskään miksi väität Doomia AMD optimoiduksi. Eli mikäli esim Nvidialta kestää pari vuotta saada async shader tuki ajureihinsa tai sen käyttö ei anna suorituskykylisää, async shader tuki pelissä ei tarkoita samaa kuin AMD:lle optimoitu.

Edit: Doom käyttää AMD:n julkaisemia shader extensioneja. Löytyykö Nvidialta mitään vastaavaa? Eipä taida. Vaikea käyttää jotain mitä Nvidia ei tarjoa.

Meinaat että amd:n a-shader toteutustapa on ainoa oikea ja muiden pitäisi apinoida gcn tekniikkaa!

Vaikka nvidia on mielestäsi hirmuisesti jäljessä niin heidän ei tarvinnut julkaista p10:ä nopeampia gtx 1060 kortteja tappiin kellotettuna (1500 -> 2000MHz) ja tehosyöppöinä (120 -> 165w) toisin kuin amd teki surullisen kuuluisien rx480 ruoskien kohdalla.
https://www.techpowerup.com/reviews/ASUS/GTX_1060_STRIX_OC/27.html

[/ot]

sChoOlmAStEr

[ot]
Kehitys on ilmeisesti pysähtynyt, noin 20 pelin testissä p10 on suurin piirtein tasoissa amd:n 3 vuotta vanhojen hawaii grafiikkapiirien kanssa.

Tavallaan. Lähes kaikki tuossa testatut pelit käyttävät vanhaa engineä:

Anno 2205: DX11
AC: Syndicate: DX11
Battlefield 4: Tukee Mantlea jota ei käytetty
Arhkam knight: peli vedettiin myynnistä kertaalleen
COD BO3: DX11
Deus EX: DX12
FX 2016: DX11
Fallout 4: Engine perustuu vuoden 1997 engineen
Doom: Vulkan
Far Cry Primal: DX11 ja engine sama kuin Far Cry 3:ssa (2012)
GTA V: DX11
Hitman: DX12
Just cause 3: DX11
No mans sky: OpenGL
Rainboxw six: DX11
ROTT: DX12
Witcher 3: DX11
Total War: DX12

Ei yllätä että moderneimmissa peleissä AMD pärjää suhteessa selvästi paremmin Nvidiaan nähden. Lisäksi testivalikoimasta puuttuu kokonaan esim Road Hog engineä käyttävä peli.

Vertailu nimenomaan Nvidia vs AMD koska AMD:n 3 vuotta vanhassa piirissä on paljon käyttämätöntä potentiaalia.

sChoOlmAStEr

Rx480 korttien maksimi (pelikelpoisella) resolla (1080p) vakio 1060:t menee menojaan ja jälkimmäisellä voi pelailla vielä 1440p tarkkuudella.
https://www.techpowerup.com/reviews/ASUS/GTX_1060_STRIX_OC/26.html

Höpö höpö. Nopeasti laskettuna vain 7/20 pelissä mentiin yli 60 FPS average ja niistäkin yli puolessa todella niukasti.

sChoOlmAStEr

Meinaat että amd:n a-shader toteutustapa on ainoa oikea ja muiden pitäisi apinoida gcn tekniikkaa!

Meinaan että Nvidia voi tarjota vastaavaa avointa tekniikkaa mitä AMD tarjoaa.

sChoOlmAStEr

Vaikka nvidia on mielestäsi hirmuisesti jäljessä niin heidän ei tarvinnut julkaista p10:ä nopeampia gtx 1060 kortteja tappiin kellotettuna (1500 -> 2000MHz) ja tehosyöppöinä (120 -> 165w) toisin kuin amd teki surullisen kuuluisien rx480 ruoskien kohdalla.
https://www.techpowerup.com/reviews/ASUS/GTX_1060_STRIX_OC/27.html

[/ot]

Nopeampia vanhan tekniikan peleillä. Ne eivät kiinnosta ketään koska koko PC maailma perustuu kehitykseen. AMD vie kehitystä eteenpäin siinä missä Nvidia jumittaa menneisyydessä koska pitää saada pari wattia pienempi kulutus :p

C64Ever

Tarkoitat ettei AMD:lla kannattaisi käyttää Vulkania koska Nvidialla FPS:t tippuvat :confused::confused::confused:

AMD:llä kannattaa tietysti käyttää Vulkania doomissa kun se on sille erikseen optimoitu, mutta Nvidia:lla ei taida olla hirveästi järkeä käyttää sitä tällä hetkellä, ja kun tässä nyt testattiin Nvidian kortteja niin ei tuossa nyt mitään hirveää salaliittoa taida olla.

Noita DX11/DX12 sekasikiöpelejä löytyy tietysti jonkin verran, mutta pelkästään dx12-pelejä kuten gow4 ovat vielä kovin harvassa.

AvatarX

AMD:llä kannattaa tietysti käyttää Vulkania doomissa kun se on sille erikseen optimoitu, mutta Nvidia:lla ei taida olla hirveästi järkeä käyttää sitä tällä hetkellä, ja kun tässä nyt testattiin Nvidian kortteja niin ei tuossa nyt mitään hirveää salaliittoa taida olla.

Noita DX11/DX12 sekasikiöpelejä löytyy tietysti jonkin verran, mutta pelkästään dx12-pelejä kuten gow4 ovat vielä kovin harvassa.

Onhan siellä myös AMD:n RX 480. Aiemmasta artikkelista otettu tulokset copypastella mutta DX12/Vulkan tuloksia ei ole jaksettu copypasteta.

Onko nyt siis niin että RX 480 on parempi valinta vaikka se on hitaampi suurimmasta osasta peleissä, etenkin DX11, mutta pääsee hikisesti Vulkanilla pari framea GTX 1060 edelle, ja on muutaman fps:n nopeampi joissain harvoista DX12 peleistä, ja syöden kuitenkin 30% enemmän virtaa vs. GTX 1060?

Kysyn ihan mielenkiinnosta koska pitäisi päivittää korttia.

Ge-man

Onko nyt siis niin että RX 480 on parempi valinta vaikka se on hitaampi suurimmasta osasta peleissä, etenkin DX11, mutta pääsee hikisesti Vulkanilla pari framea GTX 1060 edelle, ja on muutaman fps:n nopeampi joissain harvoista DX12 peleistä, ja syöden kuitenkin 30% enemmän virtaa vs. GTX 1060?

Kysyn ihan mielenkiinnosta koska pitäisi päivittää korttia.

"Pari framea":

http://www.hardocp.com/article/2016…x_1060_founders_edition_review/4#.WASeIMnx6N5

At 1440p using the same playable settings found on the GeForce GTX 1060 we find the AMD Radeon RX 480 simply blows the GeForce GTX 1060 out of the water in terms of performance. While both are allowing a very high post 60FPS performance, AMD Radeon RX 480 takes it to a new level and even beats out the GeForce GTX 980! The Radeon RX 480 is performing 25% faster than the GeForce GTX 1060 under the Vulkan API, just wow.

The performance gap widens at 1080p. Here the AMD Radeon RX 480 is 32% faster than the GeForce GTX 1060 running "Ultra" settings and "Nightmare" settings at 1080p under the Vulkan API. Performance has increased with the more CPU bound resolution, perhaps showing one advantage of Vulkan API (and coincidently DX12 as well) the fact that CPU overhead can be reduced at lower resolutions improving performance.

RX480 on huomattavasti varmempi valinta. Selvästi parempi Vulkan/DX12/Mantle peleissä ja lisäksi Nvidian ostaneet ovat viime vuosina saaneet tottua ikäviin yllätyksiin. Async compute ajurin piti tuettuna Maxwell arkkitehtuurin ajureissa jo 2014, ei ole vieläkään. Nvidian tekniikat hidastavat tiettyjä pelejä (Witcher 3 esim) ja poistattivat erään pelin (Arkham Knight) myynnistä. Nvidian vanhemmat näytönohjaimet hidastuvat selvästi enemmän suhteessa uusiin kuin AMD:n joten näytönohjaimet ovat lyhytikäisempiä. GTX 970:ssa piti olla 4 gigatavua nopeaa muistia mutta ei ole kuin 3.5 gigatavua ja kusetus sen kuin jatkuu http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Summattuna: AMD on varma valinta. Nvidialla saa jännitystä elämään.

C64Ever

"Pari framea":

http://www.hardocp.com/article/2016…x_1060_founders_edition_review/4#.WASeIMnx6N5

RX480 on huomattavasti varmempi valinta. Selvästi parempi Vulkan/DX12/Mantle peleissä ja lisäksi Nvidian ostaneet ovat viime vuosina saaneet tottua ikäviin yllätyksiin. Async compute ajurin piti tuettuna Maxwell arkkitehtuurin ajureissa jo 2014, ei ole vieläkään. Nvidian tekniikat hidastavat tiettyjä pelejä (Witcher 3 esim) ja poistattivat erään pelin (Arkham Knight) myynnistä. Nvidian vanhemmat näytönohjaimet hidastuvat selvästi enemmän suhteessa uusiin kuin AMD:n joten näytönohjaimet ovat lyhytikäisempiä. GTX 970:ssa piti olla 4 gigatavua nopeaa muistia mutta ei ole kuin 3.5 gigatavua ja kusetus sen kuin jatkuu http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Summattuna: AMD on varma valinta. Nvidialla saa jännitystä elämään.

Niin katsoin noita Muron testejä, GTX 1060 OpenGL vs RX 480 Vulkan niin ero ei taida olla kuin pari framea, joten käytännössä samalla tasolla. Eikai Geforcella kannata käyttää Vulkania jos se on hitaampi kuin OpenGL, kun graafisesti niissä ei taida olla eroja?
Vulkan ja Mantle pelejä ei taida olla kovin montaa joten ei kuulosta siinä mielessä kovin varmalta valinnalta jos suurimmassa osassa pelejä on hitaampi tällä hetkellä ja luultavasti myös lähitulevaisuudessa? Toki asia voi olla vuonna 2019 toisin, mutta silloin on luultavasti jo uusi kortti koneessa.

Ge-man

Niin katsoin noita Muron testejä, GTX 1060 OpenGL vs RX 480 Vulkan niin ero ei taida olla kuin pari framea, joten käytännössä samalla tasolla. Eikai Geforcella kannata käyttää Vulkania jos se on hitaampi kuin OpenGL, kun graafisesti niissä ei taida olla eroja?

Katso tuota linkittämääni artikkelia ja ero on melko huikea. GeForcella OpenGL on sen pari framea nopeampi kuin Vulkan. Se ettei GeForcella Vulkan ole nopeampi kertoo karusti GeForcen olevan valmiiksi vanhaa tavaraa.

Ge-man

Vulkan ja Mantle pelejä ei taida olla kovin montaa joten ei kuulosta siinä mielessä kovin varmalta valinnalta jos suurimmassa osassa pelejä on hitaampi tällä hetkellä ja luultavasti myös lähitulevaisuudessa? Toki asia voi olla vuonna 2019 toisin, mutta silloin on luultavasti jo uusi kortti koneessa.

Mantle pelejä tuskin tuleekaan enää, DirectX 12 ja Vulkan ovat paremmin tuetut tulevaisuudessa. Tuo "suurimmassa osassa pelejä" sisältää myös graafisesti hyvin vaatimattomat DirectX 9 pelit jotka pyörivät vaikka integroidulla näyttiksellä hyvin. Luultavasti tulevaisuudessa? Tuskin. Tänä vuonna on julkaistu ainakin seuraavat "isot" pelit DirectX 12/Vulkan tuella:

Rise of the Tomb Raider, Hitman, Ashes of the Singularity, Quantum Break, Total War: Warhammer, Deus Ex: Mankind Divided, Doom, Forza Motorsport 6: Apex, Halo 5: Forge, Forza Horizon 3, Gears of War 4, Battlefield 1 (julkaistaan 3 päivän päästä, Civilization VI (julkaistaan 3 päivän päästä)

Ilman DX12 tukea on julkaistu "isoja" pelejä alkuvuodesta ainakin Far Cry Primal (helmikuu), Street Fighter V (helmikuu), Xcom 2 (helmikuu), Battlefield Hardline (maaliskuu). Vastaavasti kesän jälkeen julkaistut iso pelit ilman DX12 tukea ovat vähissä. Mafia III (lokakuu) ei ainakaan alkuvaiheessa tue DX12:a/Vulkania.

Mirror's Edge Catalystista en ole varma.

Tulevia pelejä: COD Infinite Warfare ?, Dishonored 2 ?, Watch Dogs 2 DX12.

Taatusti epätäydellinen lista, saa täydentää.

Viime kesän jälkeen voi sanoa suurimman osan isoista julkaisuista tukevan DX12/Vulkania, jo 2017 tilanne on tuon perusteella huomattavasti parempi. Eli miksi ostaa vanhentunutta GeForcea joka jo ensi vuonna jää isoissa peleissä jalkoihin ja voittaa ainoastaan peleissä jotka pyörivät lähes millä tahansa?

Itse olen nyt tutkinut tätä RX 480 vs GTX 1060 dilemmaa, ja vaikuttaa kyllä selvästi siltä että GTX 1060 on tällä hetkellä parempi ostos. Itsellä on ollut taipumusta ostella enemmän ATin kortteja aiemmin, mutta nyt on kyllä pakko siirtyä nVIDIAn leiriin. Ainoa asia mikä mietityttää että toimiikohan kolmen monitorin setuppi yhtä hyvin (tai paremmin) nVIDIAlla mitä ATIn Eyefinity. Nykynäyttiksellä (Radeon HD 6950 2 GB) pitää aina muutaman kuukauden välein ottaa monitorin johdot irti ja laittaa takaisin, kun ei kortti tunnista kaikkia kolmea näyttoä kerrallaan.

Muropaketin uusimmat