Nuove schede video AMD e Nvidia

Discussioni su tutto ciò che non riguarda i giochi legati all'Universo-X (discussioni sulla tecnologia, altri giochi...). Si prega di leggere il regolamento prima di postare.

Moderator: Moderatori per il Forum Italiano

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Nuove schede video AMD e Nvidia

Post by Blasting gelatin » Fri, 10. Jun 16, 13:01

Finalmente stanno arrivando le nuove generazioni di gpu amd ed nvidia.
dico finalmente perché io devo cambiare vga (una mitica radeon 6850 sfruttata all'inverosimile per 5 anni!) e vorrei quindi comprarne una di ultima generazione visto che ci sono.
Allo stato attuale amd ed nvidia hanno delle strategie commerciali differenti...nvidia ha fatto uscire il top di gamma o quasi mentre amd farà uscire a fine mese la RX 480 che è una mid level con un rapporto prestazioni\prezzo veramente interessante. Diciamo che con poco piu di 200 euro ti porti a casa una scheda da 5,8 teraflop e che consuma solo 150w!
Le 1080 e 1070 di nvidia sono invece troppo costose per le mie tasche.

Mettiamola cosi...ho sempre avuto schede nvidia, la 6850 è stata la mia prima amd e devo essere onesto mi ci sono trovato molto bene.
fondamentalmente trovo stupide le infinite discussioni e litigi che spopolano su internet tra le i sostenitori delle due case.
Personalmente compro la marca che al momento mi offre di più a parità di prezzo.
allo stato attuale se nvidia non tira fuori una scheda di pari prestazioni della rx 480 allo stesso prezzo anche stavolta punterò su amd altrimenti vedremo.

che ne pensate?

User avatar
Lucateo
Moderator (Italiano)
Moderator (Italiano)
Posts: 2811
Joined: Thu, 1. Jul 10, 11:11
x4

Post by Lucateo » Fri, 10. Jun 16, 14:16

Direi che hai fatto una buona analisi.

La risposta Nvidia alla RX 480 sarà sicuramente la GTX 1060 (si parlava anche di una 1060 Ti) ma che io sappia ad oggi si sa pochissimo.

La Rx 480 mi sembra una ottima scheda e fa quasi male vederla inserita nella fascia bassa quando dovrebbe avere prestazioni tra una gtx 970 e una 980, cioè quella che era la fascia alta della generazione scorsa.

Mi permetto di consigliarti di aspettare ancora qualche mese, giusto il tempo che escano le varie versioni custom, magari spenderai qualche decina di euro in più ma non avrai il solido terribile dissipatore stock.
Image

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Fri, 10. Jun 16, 14:34

Si comunque se ne parla almeno verso settembre cosi vedo le varie proposte e se ci sono problemi con qualche chipset.
Nvidia ha di bello il physx e l'hbao entrambi implementati pesantemente in certi giochi. Physx secondo me è molto pesante, in batman arkam origins e arkam city così come in metro lastlight se non hai una buona scheda nvidia ti ammazza il computer. Io ho un i7 4770k a 4gigahertz perciò non una cpu lenta...tuttavia il collo di bottiglia nel bus dati fa rallentare la scena di gioco se non metto la fisica a livelli bassi. Solo da questo punto di vista nvidia mi attira molto.
Tra l'altro vanno fatte anche delle considerazioni in termini di sfruttamento della potenza di calcolo.
Amd è nettamente superiore in termini di teraflop rispetto a nvidia (allo stesso prezzo) tanto che una radeon 380x se ben ricordo viaggia sui 5 teraflop e costa quanto una geforce 970 che ne ha 3. Sulla carte è nettamente superiore ma poi sui test stanno alla pari.
Da che dipende? Non mi sembra ci sia una risposta univoca...ognuno dice la sua, driver, engine di gioco, etc etc...
Tuttavia c'è un'altra variabile da prendere in considerazione...il mercato gaming volente o nolente segue quello delle console.
Lo stesso gioco per pc ha la grafica più pompata di uno per console ma comunque le richieste grafiche vengono livellate perche mediamente gli engine dei giochi sono basati soprattutto per l'hardware console.
Oggi le console principali (xbox one, ps4) sono entrambe hardware 100% AMD, dalla cpu, al chipset alla gpu....questo significa che gli engine saranno molto ottimizzati per amd. C'è da pensare che anche su pc assisteremo ad una ottimizzazione dei giochi verso amd quando fino ad ora nvidia era il punto di riferimento?
Di certo nvidia ha perso una grossa fascia di mercato.

User avatar
Lucateo
Moderator (Italiano)
Moderator (Italiano)
Posts: 2811
Joined: Thu, 1. Jul 10, 11:11
x4

Post by Lucateo » Fri, 10. Jun 16, 14:54

Blasting gelatin wrote:
Da che dipende? Non mi sembra ci sia una risposta univoca...ognuno dice la sua, driver, engine di gioco, etc etc...
Immagino dipenda davvero caso per caso ma spesso si tratta di sfumature nelle prestazioni. Poi certo che se fanno uscire giochi ottimizzati in modo imbarazzante stile Batman l'anno scorso non c'è ati o nvidia che tenga...ma fortunatamente sono casi rari.

Blasting gelatin wrote: Tuttavia c'è un'altra variabile da prendere in considerazione...il mercato gaming volente o nolente segue quello delle console.
Lo stesso gioco per pc ha la grafica più pompata di uno per console ma comunque le richieste grafiche vengono livellate perche mediamente gli engine dei giochi sono basati soprattutto per l'hardware console.
Ormai è sicuro che usciranno le nuove console di metà ciclo e sulla carta dovrebbero essere nettamente più potenti di quelle attuali quindi è probabile che se riusciranno a fare presa sul mercato il famoso livellamento non sarà poi più così necessario (non che consideri il livellamento il male assoluto, se non avessero "livellato" the witcher probabilmente per giocarlo a dettagli alti avrei dovuto fare a meno di un rene). Ma questo è un altro tema e se vuoi ne parliamo molto volentieri su un altro topic. :D

http://gematsu.com/2016/06/sony-confirms-ps4-neo-not-e3

Blasting gelatin wrote: Oggi le console principali (xbox one, ps4) sono entrambe hardware 100% AMD, dalla cpu, al chipset alla gpu....questo significa che gli engine saranno molto ottimizzati per amd. C'è da pensare che anche su pc assisteremo ad una ottimizzazione dei giochi verso amd quando fino ad ora nvidia era il punto di riferimento?
Non ne sono molto convinto, sono anni che le console sono amd (addirittura si parlava di un interesse della Microsoft per rilevare amd stessa) e l'ago della bilancia dell'ottimizzazione continua a pendere verso Nvidia, salvo rari casi.
Comunque anche io ho Amd da anni e mi sono sempre trovato bene, non ho mai trovato un gioco per cui avrei davvero avuto bisogno di una nvidia.
Blasting gelatin wrote: Di certo nvidia ha perso una grossa fascia di mercato.
Forse sì ma la fascia di mercato economicamente rilevante è quella alta, e con la Gtx970 Nvidia ha vinto tutto, in pochi anni si è presa quasi l'80% delle schede per pc.

Amd per recuperare deve fare un lavoro enorme, in primis rilanciare l'importanza del marchio e non diventare la variante "povera" di Nvidia.
Image

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Fri, 10. Jun 16, 15:28

Immagino dipenda davvero caso per caso ma spesso si tratta di sfumature nelle prestazioni. Poi certo che se fanno uscire giochi ottimizzati in modo imbarazzante stile Batman l'anno scorso non c'è ati o nvidia che tenga...ma fortunatamente sono casi rari.
Si ma parte l'ottimizzazione dei giochi 2 teraflop di differenza è una enormità! Comuqnue dovrebbe vedersi una differenza sostanziale.
Ormai è sicuro che usciranno le nuove console di metà ciclo e sulla carta dovrebbero essere nettamente più potenti di quelle attuali quindi è probabile che se riusciranno a fare presa sul mercato il famoso livellamento non sarà poi più così necessario (non che consideri il livellamento il male assoluto, se non avessero "livellato" the witcher probabilmente per giocarlo a dettagli alti avrei dovuto fare a meno di un rene).
Adesso fanno pure le console high end? Si vede che c'è gente che ancora ha soldi da buttare! Comunque sono d'accordo con te...io sono a favore del livellamento perché così non devo cambiare computer di continuo...cosa che non farei comunque.
Non ne sono molto convinto, sono anni che le console sono amd (addirittura si parlava di un interesse della Microsoft per rilevare amd stessa) e l'ago della bilancia dell'ottimizzazione continua a pendere verso Nvidia, salvo rari casi.
In giro si dice anche che nvidia fa i driver "truccati" nel senso che degrada di poco la qualità per aumentare il framerate (sulla vecchia serie 5000 lo fece veramente) però vai a capire se è vero. Sono tutti esperti su internet ma a me sembra che non ci capisce una mazza nessuno anche perché sono questione ingegneristiche di un certo spessore.
Certo è che se invece dipendesse da i driver amd come qualcuno dice allora significherebbe che alla amd sono degli incopetenti cosa che mi sembra illogica.

MessaggioInviato: Ven, 10. Giu 16, 14:54 Oggetto:
Blasting gelatin ha scritto:

Da che dipende? Non mi sembra ci sia una risposta univoca...ognuno dice la sua, driver, engine di gioco, etc etc...


Immagino dipenda davvero caso per caso ma spesso si tratta di sfumature nelle prestazioni. Poi certo che se fanno uscire giochi ottimizzati in modo imbarazzante stile Batman l'anno scorso non c'è ati o nvidia che tenga...ma fortunatamente sono casi rari.


Blasting gelatin ha scritto:

Tuttavia c'è un'altra variabile da prendere in considerazione...il mercato gaming volente o nolente segue quello delle console.
Lo stesso gioco per pc ha la grafica più pompata di uno per console ma comunque le richieste grafiche vengono livellate perche mediamente gli engine dei giochi sono basati soprattutto per l'hardware console.


Ormai è sicuro che usciranno le nuove console di metà ciclo e sulla carta dovrebbero essere nettamente più potenti di quelle attuali quindi è probabile che se riusciranno a fare presa sul mercato il famoso livellamento non sarà poi più così necessario (non che consideri il livellamento il male assoluto, se non avessero "livellato" the witcher probabilmente per giocarlo a dettagli alti avrei dovuto fare a meno di un rene). Ma questo è un altro tema e se vuoi ne parliamo molto volentieri su un altro topic. Very Happy

http://gematsu.com/2016/06/sony-confirms-ps4-neo-not-e3


Blasting gelatin ha scritto:

Oggi le console principali (xbox one, ps4) sono entrambe hardware 100% AMD, dalla cpu, al chipset alla gpu....questo significa che gli engine saranno molto ottimizzati per amd. C'è da pensare che anche su pc assisteremo ad una ottimizzazione dei giochi verso amd quando fino ad ora nvidia era il punto di riferimento?


Non ne sono molto convinto, sono anni che le console sono amd (addirittura si parlava di un interesse della Microsoft per rilevare amd stessa) e l'ago della bilancia dell'ottimizzazione continua a pendere verso Nvidia, salvo rari casi.
Comunque anche io ho Amd da anni e mi sono sempre trovato bene, non ho mai trovato un gioco per cui avrei davvero avuto bisogno di una nvidia.

Blasting gelatin ha scritto:

Di certo nvidia ha perso una grossa fascia di mercato.


Forse sì ma la fascia di mercato economicamente rilevante è quella alta, e con la Gtx970 Nvidia ha vinto tutto, in pochi anni si è presa quasi l'80% delle schede per pc.
Oddio se non fosse per le directx 12 io alla 970 preferirei una 380 se non addirittura una 290x che te la tirano dietro la schiena.
Comunque sono fasi...in certi periodi negli anni amd è stata avanti e in altri nvidia.

User avatar
ADAM79
Posts: 1953
Joined: Fri, 30. Sep 05, 20:27
x4

Post by ADAM79 » Sun, 12. Jun 16, 09:15

oramai non seguo più questi confronti come una volta...

Aggiungo una piccola info giusto per dovere di cronaca... magari può interessare se fate rendering 3D: si sta diffondendo un render sviluppato da nVidia che sfrutta le sue GPU per fare dei render mostruosi in tempi molto brevi (con alcune configurazioni TOP-SLI si arriva quasi al realtime).

Per maggiori info: nVidia iRay.

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Sun, 12. Jun 16, 10:40

Ogni tanto faccio qualche rendering quindi la cosa è interessante.
Comunque bisogna vedere se questo motore di rendering è al livello di mental ray, radiosity e compagnia bella e inoltre immagino che sarà per schede quadro.
A quel punto anche le fire gl della amd vanno bene con gli altri motori di rendering.

User avatar
ADAM79
Posts: 1953
Joined: Fri, 30. Sep 05, 20:27
x4

Post by ADAM79 » Sun, 12. Jun 16, 13:04

Hemm.... quello in giallo\arancio è un link....

Con la scheda grafica mobile del mio G750, funziona.

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Sun, 12. Jun 16, 20:23

Quindi ti funziona persino con la vga nvidia del portatile? Spettacolare!
Anche se le gpu dei portatili sono lente comunque sono sempre molto piu potenti delle cpu quindi immagino la rapidità su 3ds max.
Questo è un bel punto a favore di nvidia, mi ci diverto con 3ds max e vorrei anche approfondire meglio vue d'esprite che ha un rendering fenomenale ma anche tanto pesante...a quel punto i teraflop di una scheda anche mid level ribalterebbe completamente la cosa.
Certo bisogna vedere se riesce a sfruttare completamente la gpu.
Immagino anche che nei rispettivi programmi ci debba essere il plugin apposito altrimenti non usa la funzione...tu che programma usi che sfrutta il rendering da gpu?

User avatar
ADAM79
Posts: 1953
Joined: Fri, 30. Sep 05, 20:27
x4

Post by ADAM79 » Tue, 14. Jun 16, 15:26

...guarda... io l'ho buttata li proprio come "cosa da tenere d'occhio". Posso solo dirti che per vedere come funzionava mi sono scaricato DAZ-Studio (3DS non lo uso da una vita) e si, i programmi devono avere il loro plugin per utilizzarlo ma, se non sbaglio (controlla perchè vado a memoria), mi pare che ci siano già delle voci in giro che parlano di 3DS e altri famosi.

Non so se hai mai sentito parlare di Render Unbiased. Io l'ho sentito per la prima volta proprio con iRay... in pratica tu avvii il rendering e quello va finché non sei soddisfatto dell'immagine che ti disegna sullo schermo. Non disegna pezzetto per pezzetto, ridisegna tutta l'immagine rifinendola man mano che elabora. Altra figata che gli ho visto fare è che, con un unico rendering, può darti l'immagine finale scomposta in vari canali tipo Luci, Ombre, Oggetti, e altri che sinceramente neanche ho capito.... XD. Per dire... se vuoi cambiare il colore a una luce lo fai da photoshop importando i vari layer (probabilmente, scritto così, non c'avrai capito una mazza... cerca in giro e se non trovi fammi sapere).

Tieni d'occhio iRay perché SEMBRA che sia una rivoluzione anche a detta di molti professionisti del rendering 3D.

;)

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Sat, 18. Jun 16, 09:23

Ma iray e render unbiased sono plug in per 3ds?

User avatar
ADAM79
Posts: 1953
Joined: Fri, 30. Sep 05, 20:27
x4

Post by ADAM79 » Sat, 18. Jun 16, 12:59

iRay è un render di tipo unbiased ed esiste già il plugin per 3DS. Trovi tutto nel link che ti ho postato prima e che ti ri-posto: http://www.nvidia.it/object/advanced-rendering-it.html

;)

-=SiR KiLLaLoT=-
Posts: 2572
Joined: Sat, 3. Mar 12, 19:58
x4

Post by -=SiR KiLLaLoT=- » Sat, 18. Jun 16, 14:01

Mi introduco nella discussione per puntualizzare una cosa che magari in pochi considerano...

Spero che non vi dia la sensazione di persona "tirchia", ma da quando ho la necessità di gestire meglio i miei soldi (quelli veri), ho cominciato a considerare una cosa di cui non mi ero mai preoccupato in passato, ovvero l'efficienza energetica.

Bene, prendendo in considerazione questo fattore ho totalmente cambiato la mia ottica di acquisto delle schede video.

Vengo e mi speigo in modo molto pratico.

Fino a qualche tempo fa avevo sul mio pc una GTX 275, gloriosa scheda dei tempi passati (equiparabile all'attuale 970). Questa scheda, così come tutte le schede a doppia alimentazione da 12v, aveva il suo bel consumo energetico, ma mi preoccupavo poco di questo fattore. Bene, le mie bollette di luce hanno avuto sempre una media abbastanza alta (siamo in 2 ad usare altrettanti pc più o meno potenti che stanno accesi mediamente 16 ore al giorno) pari a circa 160-200€ ogni due mesi (ebbene si -.- ). Dopo un pò di anni con questa configurazione mi è capitata di avere sotto mano un'ottima ATI HD 6870. Con questa nuova scheda mi ci sono divertito un mondo senz'altro, ma notai che le bollette erano ulteriormente "lievitate" arrivando a sfiorare quasi le 300€ (qualche volta li ho pure superati). Sempre non tenendo conto del fattore energia, non mi sono mai preoccupato di tenere il pc acceso dalla mattina alla sera (quando uscivo, quando dormivo, ecc). Ad un certo punto però questa medie di bollette da oltre 200 euri son passate da "due su sei" a "quattro su sei" (bollette annue intendo). A quel punto ho notato che qualcosa non andava. Bene, dopo aver fatto i peggio esperimenti del capire xkè stavo consumando consì tanta luce, mi è venuto il pallino di capire quanto potessero consumare i due PC di casa, essendo le uniche due cose elettriche accese sempre (a parte il frigorifero). Reduce dalla mia esperienza in campo tecnico informatico (e visto la miriade di pc creati per le aziende), mi aspettavo che un pc potesse consumare al massimo 200W quando è a carico pieno e 40W quando non fa nulla. Ed ecco che li ho trovato il terribile inghippo. Ho praticamente scoperto che quella fantastica e meravigliosa HD 6870 che mi ha fatto divertire così tanto consumava in IDLE beh 128W CENTOVENTOTTO! FONTE.
Degli assassini in pratica!

Scoperta questa maledettissima piaga, ho ISTANTANEAMENTE tolto quella scheda per sostituirla con una ben meno potente GTX550TI (meno potente per dire...)

Morale della favola? Dopo aver inserito questa scheda nel case ed averla usata per 2-3 mesi, la mia bolletta è passata da 280€ circa a 150€..... :o :o

Morale della favola?

Mi sono andato a vedere tutti i consumi possibili e immaginabili sia delle GPU che delle CPU esistenti sul mercato ed ho comprato una GTX750TI per il pc che sta 16-18 ore al giorno acceso e una GTX 970 per il mio pc. Queste sono le attuali due schede video più efficienti sul mercato, una stramaledettamente potente per i soli 63W di consumo in full load che riesce a fare, l'altra stramaledettamente potente per i "soli" 168W che consuma in full load. Entrambe le schede in IDLE, quindi col pc che non fa niente, consumano rispettivamente 6W (SEI NON 128) e 20W. (scandaloso).

Perchè ho fatto tutto questo discorso assurdo?

Semplice.... L'nvidia mi ha presetanto una scheda basata sul concetto delle TESLA (schede usate per calcoli atomici a livelli che nemmeno sono considerabili nell'ambito gaming) e ce l'hanno riadattata sui pc di casa con un'efficienza talmente assurda che non supererà le 200W a pieno carico dando di fatto una potenza bruta su singola GPU mai vista fin'ora. E poi abbiamo AMD che mi propone una 480 che mi consiglia di usare in crossfire perchè tanto sarà più potente di una 1080 e la combinazione mi costerà 200€ in meno. Peccato che una singola 1080 NEL TEMPO consumerà sempre 200W mentre 2 480 consumeranno 300W, senza poi considerare il fattore software della gestione del crossfire che per quanto lo sistemerai bene, non tutti i giochi lo sfrutteranno come dovrebbero.

Da questo ne deduco che:

- Recupererò le 200€ spese in più nel giro di 2 bollette
- AMD (purtroppo) se ne può andare bellamente a quel paese :)

Fine della trasmissione :D
HW Spec:
CPU: Core i9 9900k @ 5.0Ghz - MOBO: MSI Z390-A PRO - RAM: 2x8GB Crucial Ballistix MAX DDR4 4400Mhz CL19 - GPU: nVidia RTX 3070 FE - M.2: Samsung 980 512GB - SSD: Samsung 840 Pro 256GB - Samsung 850 EVO 250GB - Sandisk Plus 240GB – HDD: WD Caviar Black 1TB – WD Caviar Blue 1TB – WD Caviar Black 2TB - PSU: Enermax Liberty 82+ PRO 620w - CASE: iTek Iron Soldier - MONITOR: 27” Acer ED270UP - Windows 10 Pro 64-Bit - KEYBOARD: Logitech G11 – MOUSE: Red Dragon Perdition
My X4 Steam screenshots.

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Sun, 19. Jun 16, 15:12

Concordo con il discorso consumi. E' verissimo che incidono sulla bolletta e inoltre sono anche un problema se non hai un alimentatore potente e stabile, le schede che consumano scaldano anche molto, si rovinano prima e fanno aumentare la temperatura dell'intero case se non è ben ventilato.
Sui consumi sia nvidia che amd hanno alti e bassi...delle volte scaldano più le nvidia altre volte le amd sempre a parità di prestazioni.
Io ho risolto il problema diversificando l'impiego dei pc in casa.
Con i pezzi dei vecchi pc ho assemblato un pc collegato al televisore e lo uso come mediacenter in modo che non ho problemi con nessun formato e inoltre è comodissimo per tanti scopi. Questo pc ha un hardware veramente modesto quindi consuma una minchiata.
Il pc da gaming attualmente ha una vecchia amd hd 6850 che consuma 125w a regime e soli 19w in idle...scalda pochissimo ed è durevole.
Siccome il pc da gaming sta accesso molto di meno il problema dei consumi è ridotto e comunque attualmente le schede di fascia media ormai consumano tutte poco.
Se prenderò la amd rx 480 consumerà 150w a regime...insomma parliamo sempre di consumi contenuti considerate le prestazioni (5,8 teraflop).
Per me il fattore consumo è molto limitato perche il pc da gaming lo uso solo per giocare o fare lavoretti in 3ds o con frattali 3d, spesso per scrivere uso il portatile addirittura.
Certo se come nel tuo caso lo devi tenere sempre acceso un pc potente diventa un costo vero e proprio.

-=SiR KiLLaLoT=-
Posts: 2572
Joined: Sat, 3. Mar 12, 19:58
x4

Post by -=SiR KiLLaLoT=- » Sun, 19. Jun 16, 16:01

Blasting gelatin wrote:Il pc da gaming attualmente ha una vecchia amd hd 6850 che consuma 125w a regime e soli 19w in idle...scalda pochissimo ed è durevole.
Occhio che questa scheda è identica alla mia e non credo proprio che consumi 20w in idle....

In questa recensione è anche peggio della 6870... Quasi 150W in idle! Stanno proprio fuori! :o :o :o
HW Spec:
CPU: Core i9 9900k @ 5.0Ghz - MOBO: MSI Z390-A PRO - RAM: 2x8GB Crucial Ballistix MAX DDR4 4400Mhz CL19 - GPU: nVidia RTX 3070 FE - M.2: Samsung 980 512GB - SSD: Samsung 840 Pro 256GB - Samsung 850 EVO 250GB - Sandisk Plus 240GB – HDD: WD Caviar Black 1TB – WD Caviar Blue 1TB – WD Caviar Black 2TB - PSU: Enermax Liberty 82+ PRO 620w - CASE: iTek Iron Soldier - MONITOR: 27” Acer ED270UP - Windows 10 Pro 64-Bit - KEYBOARD: Logitech G11 – MOUSE: Red Dragon Perdition
My X4 Steam screenshots.

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Mon, 20. Jun 16, 15:52

Bò all'epoca quando l'avevo comprata ricordo che era quello il valore di idle...poi onestamente non me ne frega molto...watt piu watt meno non fa differenza. Alla fine se ti serve la potenza bruta non e ne fuggi e i watt li devi consumare.

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Sun, 31. Jul 16, 16:14

In questi giorni sto leggendo diverse recensioni e confronti tra la rx 480 e la gtx 1060.
Praticamente la rx 480 è piu conveniente e offre di più a un costo inferiore.
Sono molto orientato a prendere per la seconda volta una amd quindi...ho troppi vincoli di budget e inoltre mi sembra una cretinata spendere di più per avere un prodotto analogo e inferiore su certi aspetti.
Adesso devo valutare se prendere la 4gb o la 8gb.
In teoria la 4gb è la migliore per me perché costa veramente poco e io attualmente gioco in 1280x1024 (causa limite monitor) e comunque 4gb sono piu che sufficienti anche per la 1080.
Il monitor non lo cambierò per almeno altri due anni e solo allora giocherò in 1080 ma io sono uno che cambia vga in media ogni 4-5 anni quindi mi chiedo se tra 4 anni in 1080 i giochi non vorranno 8gb di vram...probabilmente si visto che arriveranno le nuove console di fascia alta.
Tuttavia mi chiedo se prendere la 8gb ha un senso...difatti una gpu come quella è in grado di spostare 8gb di texture e dati vari senza far crollare il framerate? Forse 8 gb hanno senso solo se fai il crossfire cosa che non mi interessa minimamente.

Forse miu conviene la 4gb...spendo poco e ho prestazioni esagerate per le risoluzione che uso io...poi se fra 4 anni non basteranno per quello che ho speso cambio direttamente la vga....voi che ne dite?

-=SiR KiLLaLoT=-
Posts: 2572
Joined: Sat, 3. Mar 12, 19:58
x4

Post by -=SiR KiLLaLoT=- » Sun, 31. Jul 16, 21:29

Beh, la RX480 è sempre un prodotto del 2016 e deve attenersi alle giuste prestazioni per stare sul mercato, risultanto di fatto una scheda conveniente.
Il problema è che la 1060 (che dalle recensioni mi pare o "uguale" o "più potente"), riesce a consumare meno della metà per proporre lo stesso risultato della RX480 FONTE.
Inoltre la GTX1060 la stanno mollando a circa 280€, mentre la RX480 con ventimilionidisconti, la trovi ad un prezzo simile, o qualcosa di più.
In fine c'è da considerare l'utilizzo dell' NVIDIA PhysX e delle Vulkan che se da un lato aiutano l'nvidia a semplificare il lavoro, dall'altro le Vulkan vincono nettamente nell'utilizzo delle DX12 per AMD.
Posso garantirti però che in discorsi "veramente da nerd" tra amici tecnici, ne abbiamo dedotto che il PhysX+Vulkan (xkè il Vulkan l'nvidia può usarlo comunque) è maggiore (sul globale) del vantaggio che il Vulkan da sulle DX12 per l'AMD.
In pratica l'nVidia vincerà sempre e comunque per la "potenza di calcolo bruta" che hanno le loro schede, rispetto quelle AMD.

Il discorso della Vram è solo legato all'utilizzo di risoluzione che vuoi avere. Attualmente puoi capire dai test 4k quale sia la scelta giusta. Ricordo però che la vram di nvidia e quella AMD hanno due concetti completamente diversi di gestione. Non so ora, ma fino a qualche anno fa il rapporto tra le ram era 1:2, ovvero un 1 giga di vram nvidia poteva gestire quello che 2 giga avrebbero fatto sull'AMD. Se giochi a 1024x768 è ovvio che potresti usare una scheda di 5 anni fa per avere degli fps decenti, ma visto che tra un paio di anni cambierai monitor (e come minimo prenderai un 27" da 2 o meglio 4k), sul tuo pc dovrà trovarsi una scheda video adeguata alle tue esigenze.

Quindi il mio consiglio è:

1) Compri subito una 1070/80 e togli ogni dubbio.
2) Aspetti la 1080ti e stai tranquillo per 6-7 anni.
3) Se non reggi la spesa e vuoi fare l'acquisto adesso, prendi una 1060.


PS: Sono un fan AMD dai tempi dal K7 (ho tifato anche per Cyrix figurati) e la mia configurazione attuale ne da la conferma (Phenom II 965 BE - 890FXA - HD6870, questa fino a qualche tempo fa), ma quello che va detto va detto. AMD non sta più al passo dell'nvidia e dell'intel da parecchio tempo e purtroppo credo che non sarà facile uscire da questa situazione. Adesso sono in possesso di una GTX 970 (ho trovato un'occasione da 220€ e per ora l'affare regge) e presto affiancherò un i7 6700 (o i5 6600) con MB e RAM nuove.
Da quest'anno a malincuore, tornerò nuovamente sulla curva dell'nvidia/intel (quest'ultima abbondonata dopo il glorioso mendocino).
HW Spec:
CPU: Core i9 9900k @ 5.0Ghz - MOBO: MSI Z390-A PRO - RAM: 2x8GB Crucial Ballistix MAX DDR4 4400Mhz CL19 - GPU: nVidia RTX 3070 FE - M.2: Samsung 980 512GB - SSD: Samsung 840 Pro 256GB - Samsung 850 EVO 250GB - Sandisk Plus 240GB – HDD: WD Caviar Black 1TB – WD Caviar Blue 1TB – WD Caviar Black 2TB - PSU: Enermax Liberty 82+ PRO 620w - CASE: iTek Iron Soldier - MONITOR: 27” Acer ED270UP - Windows 10 Pro 64-Bit - KEYBOARD: Logitech G11 – MOUSE: Red Dragon Perdition
My X4 Steam screenshots.

User avatar
Tolihama
Moderator (Italiano)
Moderator (Italiano)
Posts: 5419
Joined: Tue, 31. May 05, 19:16
x4

Post by Tolihama » Mon, 1. Aug 16, 09:37

Non entro nel merito tecnico poiché sono assolutamente impreparato sotto questo punto di vista (trovo interessante l'opinione di voi maggiormente esperti e sarei anche curioso di sapere cosa ne pensa Aken a proposito... :) ), tuttavia troverei interessante discutere anche dei prezzi, che è l'aspetto che sto maggiormente osservando (per un laureando in economia, poi...).

Purtroppo è evidente che questo è un momento di transizione tra una generazione e l'altra, per cui i prezzi della generazione vecchia si sono abbassati notevolmente (giustamente Sir Kill segnala l'affare della GTX 970, che forse è una delle schede più appetibili nell'immediato in termini di prezzo/prestazioni) a seguito dell'introduzione di quella nuova che invece è quotata a prezzi decisamente alti; anche la 1060, da quello che vedo sui principali rivenditori, sta in verità intorno ai 350 - 360 euro (fa eccezione solo la versione che hai linkato tu, che è quella nano della Zotac) o comunque a prezzi superiori ai 300 euro; onestamente mi sembrano esagerati, considerando comunque che la 1060 andrà a coprire la fascia media, però posso capirlo dato che è appena uscita e che c'è ancora l'alternativa delle pur buone schede della passata generazione (in questo contesto mi aspetterei, o almeno mi augurerei, che i prezzi della 1060 scendano sui 250 euro, almeno, nel giro dei prossimi mesi).

Poi ritroviamo le 1070 e 1080 che praticamente non hanno concorrenza e quindi sono a prezzi esorbitanti ma, se sono vere le prestazioni che dicono di avere, probabilmente il loro attuale prezzo non è neanche fuori mercato (certo, se l'unico mercato è quello offerto da Nvidia, non potrebbe essere altrimenti! :roll: ).
In particolare, la 1070 ha un prezzo che, seppur oggettivamente altino (parliamo di una fascia di 500 - 550 euro, forse anche meno), può avere senso, soprattutto se consideriamo che avrebbe prestazioni sull'ordine di grandezza della 980 Ti, tra l'altro con un TDP decisamente minore (150 W invece di 250 W), la quale fino al rilascio della 1080 veniva venduta a non meno di 600 euro (ora il prezzo è sceso a un po' meno di 500 euro proprio in virtù dell'arrivo della 1070, nonostante ciò non la considerei una buona alternativa proprio per il consumo energetico quanto invece potrebbe esserlo una 970 rispetto alla 1060). Solo per questo motivo, se dovessi prendermi un pc nuovo, valuterei l'acquisto di una 1070 e lo considererei perfino un affare (tralascio il fatto che giocando in Full HD questa scheda è decisamente sovrabbondante, quindi potrebbe rivelarsi uno spreco acquistarla per questa risoluzione).
La 1080 non la commentiamo nemmeno: come ogni nuova ammiraglia che si rispetti, ha prezzi per tasche che non sanno come impiegare i soldi in altro modo. Se è vero che questa scheda si rivolge soprattutto a chi punta al 4K (nonostante il nome che farebbe pensare alla risoluzione 1080 :D ), oserei dire che, in quanto questa risoluzione ancora non rappresenta uno standard come ormai lo è diventato il Full HD, c'è ancora tempo per aspettare: è prevedibile che fra qualche anno saranno scesi ulteriormente i prezzi per monitor 4K e allo stesso tempo saranno aumentati anche i prodotti "multimediali" che supportano e diventano godibili a questa risoluzione, nonché mi aspetterei la presenza sul mercato di nuove generazioni di componenti hardware ancora più potenti di oggi (sempre sperando in prezzi compatibili e ragionevoli, ovviamente...). In quest'ottica e se dovessi avere un vincolo di bilancio, una 1080 non la prenderei mai, tranne se non si è soliti fare continui upgrade alla propria configurazione hardware (della serie, cambio gpu ogni volta che ne esce una nuova: compro oggi per rivenderla quando esce la successiva; non so quante persone facciano così, ma se fossi una di quelle allora potrei farci un pensierino). Se invece non avessi un vincolo di bilancio, allora solo per il numero 1080, che mi piace assai, la prenderei al volo.

Tutto questo per fare una considerazione spicciola, probabilmente anche banale, sui prezzi. C'è poi da tenere conto degli altri due aspetti: quello tecnico, sul quale non commento ma che già ha introdotto Sir Kill, e quello delle necessità particolari dei singoli acquirenti, sul quale non posso commentare in quanto ognuno ha le proprie.
Tuttavia immagino che la risoluzione che si utilizza possa rientrare in entrambi di questi aspetti. Ad esempio, mi chiedo quanto davvero serva una scheda "potente" per giocare a una risoluzione di 1280x1024. Capirei la necessità di una scheda all'altezza per il Full HD, risoluzione ormai da considerarsi quasi lo standard (peraltro già ben coperta anche dalle schede delle passate generazioni), o per risoluzioni superiori, per le quali le nuove 1070 e 1080 potrebbero fare invece la differenza (oppure risultare inadeguate rispetto a soluzioni che potrebbero essere introdotte nei prossimi anni).

User avatar
Blasting gelatin
Posts: 1417
Joined: Sat, 10. Nov 07, 11:45
x3tc

Post by Blasting gelatin » Mon, 1. Aug 16, 12:07

Il problema è che la 1060 (che dalle recensioni mi pare o "uguale" o "più potente"), riesce a consumare meno della metà per proporre lo stesso risultato della RX480 FONTE.
Nelle recensioni che leggo in giro non consuma meno della metà, consuma di meno ma non cosi esageratamente di meno! Va detto anche che amd ha aggiornato i driver proprio per limitare il problema del consumo che è calato...molte di quelle recensioni sono sorpassate anche perché fatte con giochi in dx11. Se parliamo di prestazioni in dx 12 (che è quello che conta) sono due schede piu o meno simili...come al solito su alcuni titoli va meglio una e su altri l'altra....ma le differenze sono veramente da nerd pungiball (una noiosa tipologia di umano utile per gli allenamenti di boxe). quando leggo i commenti della gente sulle recensioni, e le recensioni stesse, fanno ridere! Gente che litiga per 5 frame di differenza quando sappiamo che in soldoni non cambia una mazza quando giochi! Tanto quando ormai la scheda è vetusta non sono 5-10 frame a fare la differenza. A me basta sapere che sono piu o meno simili in termini di potenza.
Indiscutibilmente il grosso vantaggio di nvidia sta nell'ottimizzazione...in questo nvidia è stata sempre superiore. Basta guardare l'efficienza energetica ma anche i teraflop...nvidia con neanche 4 teraflop fa quello che amd fa con quasi 6...mistero della fede vacci a capire!
Se giochi a 1024x768 è ovvio che potresti usare una scheda di 5 anni fa per avere degli fps decenti, ma visto che tra un paio di anni cambierai monitor (e come minimo prenderai un 27" da 2 o meglio 4k), sul tuo pc dovrà trovarsi una scheda video adeguata alle tue esigenze.
E' proprio quello che non ho mai fatto e mai farò! Non sono stupido! Comprare monitor grossi con risoluzioni mostruose è una trappola che ti costringe a cambiare prima l'hardware e inoltre non so la gente ma io non è che ho un salotto a disposizione per usare il computer! Queste sono solo trovate commerciali per nerd (pungiball! oggi ho voglia di allenarmi cavolo!). Io se e quando cambierò monitor sarà solo per passare a un 16:9 massimo 25 pollici e in full hd. Non ha neanche senso comprarne piu grossi per due motivi:

1.dove lo metti? io non ho una scrivania enorme su cui metterlo.
2.che senso ha lavorare a risoluzioni mostruose con monitor enormi se tanto dopo devi posizionarlo piu lontano? E' un controsenso.
Quindi il mio consiglio è:

1) Compri subito una 1070/80 e togli ogni dubbio.
2) Aspetti la 1080ti e stai tranquillo per 6-7 anni.
Prima di tutto sono disoccupato...ho perso il lavoro qualche mese fa e quindi non regalerò di certo quei pochi soldi che ho.
Punto secondo sono anni che ho perso la filosofia di comprre schede di fascia alta...non ne vale la pena. Costano un botto e offrono molto meno, comunque anche se in teoria sono piu longeve poi dopo ci sono altri parametri da tenere in considerazione, le api cambiano (e con esse le schede), la cpu e il sistema in generale invecchia...alla fine comunque mi ritrovo a cambiare tutto nel giro di 4-5 anni....merito anche del fatto che non mi faccio ingannare dalla filosofia del monitor gigante!
Sono un fan AMD dai tempi dal K7 (ho tifato anche per Cyrix figurati) e la mia configurazione attuale ne da la conferma (Phenom II 965 BE - 890FXA - HD6870, questa fino a qualche tempo fa), ma quello che va detto va detto. AMD non sta più al passo dell'nvidia e dell'intel da parecchio tempo e purtroppo credo che non sarà facile uscire da questa situazione
Io non sono fan di nessuna anche se ho sempre apprezzato molto le nvidia. Per come la vedo io è piu il prezzo a fare la differenza perché poi in termini di prestazioni le differenze pur essendoci sono esigue.
Riguardo amd mi sembra strano comunque che non riesca a cambiare, in fondo ora ha il monopolio del mercato console (che non è poco) e dovrebbe essere in grado di colmare il divario.

Aspetterò ancora un pò...vediamo cosa viene fuori specie a livello di modelli e prezzi.

Post Reply

Return to “Off Topic Italiano”