Systemanforderungen X4

Wenn es um X4 geht, dann ist dieses Forum der ideale Platz für eure Beiträge. Zusätzlich gibt es hier gelegentlich Informationen der Entwickler.

Moderator: Moderatoren für Deutsches X-Forum

Locked
Chrissi82
Posts: 4996
Joined: Sun, 26. Mar 06, 22:11
x3tc

Post by Chrissi82 » Fri, 13. Jul 18, 20:07

Gibt laut Benchmark keine Alternative, die du so vehement verteidigst, die Karte, ist nicht mehr zu gebrauchen. Imho ist es son Teil was bei erscheinen veraltet und jetzt kannst du die vielleicht noch für Office nutzen, gleich in den Müll damit

User avatar
Tamina
Moderator (Deutsch)
Moderator (Deutsch)
Posts: 4543
Joined: Sun, 26. Jan 14, 09:56

Post by Tamina » Fri, 13. Jul 18, 20:22

Bastelfred wrote:Finger weg von den XX60 Karten. Besser XX70 kaufen oder XX80. Nichts ist schlimmer als wenn es irgendwo ruckelt.

Von einer GTX 770 die ich hatte, bis zu einer GTX1170 zu warten, das ist schon Masochismus.
Findest du das nicht etwas übertrieben und verallgemeinert? :roll:
Darf ich fragen was du für ein Auto fährst? Fährst du einen Audi R8 oder bist du Masochist?

Code: Select all

Und wenn ein Forenbösewicht, was Ungezogenes spricht, dann hol' ich meinen Kaktus und der sticht sticht sticht.
  /l、 
゙(゚、 。 7 
 l、゙ ~ヽ   / 
 じしf_, )ノ 

Bastelfred
Posts: 4045
Joined: Tue, 31. Aug 04, 15:31
x4

Post by Bastelfred » Fri, 13. Jul 18, 21:06

Homerclon wrote: Die 1060 ist schneller, ich hatte extra nochmal nachgesehen.
Dann ist deine Quelle Müll!

Hier das Fazit aus über 300.000 Benchmarks...
http://gpu.userbenchmark.com/Compare/Nv ... 2165vs3639
Ergebnisse auf irgendwelchen Testseiten kann man getrost vergessen. Das sind im besten Fall nur Momentaufnahmen. Wenn keine groben Fehler drin sind.

@Tamina warum muss ich R8 fahren? Habe einen A4 Avant. In einen R8 bekomme ich meine Einkäufe gar nicht hinein. Ausserdem würde der gar nicht zu meinem Nutzungsprofil passen. Autovergleiche passen nie, es sei man vergleicht Autos.

User avatar
JSDD
Posts: 1378
Joined: Fri, 21. Mar 14, 20:51
x3tc

Post by JSDD » Sat, 14. Jul 18, 00:18

warum so frech?

Homerclon hat recht. seine quelle als müll zu bezeichnen ohne zu wissen, welche diese ist, zeugt nicht davon, dass es dir um sachliche infos (fakten) geht, sondern meinungen ... 80er klasse Ti version mag 2 "klassen" besser als die 60er sein, aber 7er generation ist halt 3x hinter der 10er generation, die gewisse technologien supportet, was die 7er nicht kann ...

ich kann dir als laie/amateur ne quelle nennen, deren inhalt du hoffentlich nicht als müll zur seite schieben und ignorieren wirst: die nvidia seite (weist ja, nvidia = hersteller der chips die in deiner garka eingebaut ist)
GTX 780 Ti
GTX 1060

die 780ti hat 0,875GHz pro kern, die 1060 hat 1,5GHz pro kern (fast das doppelte). memory speed ist mit 7 vs 8 Gbps auch schneller bei 1060. die anzahl der kerne jedoch ist bei 780 größer ... oft ist aber nicht die kernzahl x kernspeed das wichtigste, sondern bei häufigen kurzen, nicht parallelisierbaren nacheinandergeschalteten rechenaktionen ist die kernspeed alleine wichtiger ... kommt auch letztlich drauf an, wie die engine die graka nutzt ... wenn du`s genau wissen willst, hilft nix, außer game release abzuwarten, dann das game mit beiden karten zu zocken und testen
To err is human. To really foul things up you need a computer.
Irren ist menschlich. Aber wenn man richtig Fehler machen will, braucht man einen Computer.


Mission Director Beispiele

Bastelfred
Posts: 4045
Joined: Tue, 31. Aug 04, 15:31
x4

Post by Bastelfred » Sat, 14. Jul 18, 13:57

Eine Quelle zu ignorieren die sich auf eine sehr, sehr breite Datenbasis stützt, und dafür Einzeltests oder gar Marketing Gelaber vom Hersteller vorzuziehen ist.... Denk dir dein Teil, ich möchte nicht wieder "Frech" sein.

Homerclon
Posts: 1305
Joined: Thu, 13. Jul 06, 16:47
x3tc

Post by Homerclon » Sat, 14. Jul 18, 14:22

JSDD wrote:die 780ti hat 0,875GHz pro kern, die 1060 hat 1,5GHz pro kern (fast das doppelte). memory speed ist mit 7 vs 8 Gbps auch schneller bei 1060. die anzahl der kerne jedoch ist bei 780 größer ... oft ist aber nicht die kernzahl x kernspeed das wichtigste, sondern bei häufigen kurzen, nicht parallelisierbaren nacheinandergeschalteten rechenaktionen ist die kernspeed alleine wichtiger ... kommt auch letztlich drauf an, wie die engine die graka nutzt ... wenn du`s genau wissen willst, hilft nix, außer game release abzuwarten, dann das game mit beiden karten zu zocken und testen
Das kann man so leider nicht vergleichen. Unterschiedliche Architekturen, dadurch verliert die Taktrate ihre Aussagekraft. Auch die theoretische Rechenleistung (angegeben in FLOPS) hat wenig Aussagekraft.
Wie gut ein wirklich Chip ist, lässt sich nur durch Praxistests wirklich feststellen.
Bastelfred wrote:
Homerclon wrote: Die 1060 ist schneller, ich hatte extra nochmal nachgesehen.
Dann ist deine Quelle Müll!

Hier das Fazit aus über 300.000 Benchmarks...
http://gpu.userbenchmark.com/Compare/Nv ... 2165vs3639
Ergebnisse auf irgendwelchen Testseiten kann man getrost vergessen. Das sind im besten Fall nur Momentaufnahmen. Wenn keine groben Fehler drin sind.

@Tamina warum muss ich R8 fahren? Habe einen A4 Avant. In einen R8 bekomme ich meine Einkäufe gar nicht hinein. Ausserdem würde der gar nicht zu meinem Nutzungsprofil passen. Autovergleiche passen nie, es sei man vergleicht Autos.
Deine Quelle taugt auch nichts. Die Vergleichbarkeit ist zunichte, wenn das restliche System abweicht. Es soll die GraKa verglichen werden, nicht verschiedene Konfigurationen.

Außerdem scheinen dort auch nur 8 Spiele als Basis genutzt zu werden, keine >300.000. Meine Quelle (PCGH zur Info, aber von Ergebnisse von Magazine hältst du ja nicht viel) verwendet 21 aktuelle und beliebte Spiele.
Das einzige was da Zahlreich ist, sind die hunderttausende von verschiedenen Systemkonfigurationen, inkl. der Software. Da werden PC-Konfigurationen verglichen, keine einzelne Komponenten.

Aber weißt du was witzig ist? Deine Quelle gibt mir trotzdem recht. Im Durchschnitt +13% Game-FPS für die 1060 6GB (ich hatte nie gesagt wie viel mehr Leistung).
Der andere Kram interessiert nicht. Es geht um die Spieleleistung, weder die Arbeitsleistung (da ist GeForce die falsche Wahl, dafür hat NVIDIA die Quadro-, Tesla- und mit Einschränkung Titan-Reihen) noch Leistung in weitgehend sinnfreie synthetische Benchmarks.

EDIT: u.a. Computerbase.de & Hardwareluxx.de geben PCGH recht.
- 01100100 00100111 01101111 01101000 00100001
- Nur DL-Vertrieb? Ohne mich!

Boro Pi
Posts: 3767
Joined: Wed, 6. Nov 02, 22:50
x3tc

Post by Boro Pi » Sat, 14. Jul 18, 17:23

Bastelfred wrote:Eine Quelle zu ignorieren die sich auf eine sehr, sehr breite Datenbasis stützt, und dafür Einzeltests oder gar Marketing Gelaber vom Hersteller vorzuziehen ist.... Denk dir dein Teil, ich möchte nicht wieder "Frech" sein.
Du bist es aber.

Bastelfred
Posts: 4045
Joined: Tue, 31. Aug 04, 15:31
x4

Post by Bastelfred » Sat, 14. Jul 18, 18:46

Homerclon wrote: Außerdem scheinen dort auch nur 8 Spiele als Basis genutzt zu werden, keine >300.000.
Schau genau hin, 300.000 Benchmarks bilden die Datenbasis für eine der beiden Karten. Die andere hatte 13.000 Benchmarks. Das ergibt eine breite Datenbasis. Oder möchtest du das gegenteil behaupten?

Einzelne Benchmarks sind unbrauchbar, denn sie decken nur ein kurzes Zeitfenster ab. Spiele werden gepatcht und Treiber ebenso. Was heute war stimmt morgen schon nicht mehr.
Und Fehler die gemacht werden, werden durch nichts ausgeglichen. Ebenso stimmt das ganze nur für das eine System zu dem einen Zeitpunkt.

Darum zieht man besser eine breite Datenbasis heran, denn die gleich all die Dinge ganz brauchbar aus.
Ich weiß nicht was es da zu diskutieren gibt. Möchtest du ernsthaft behaupten das ein Datensatz besser ist als tausende?

Homerclon
Posts: 1305
Joined: Thu, 13. Jul 06, 16:47
x3tc

Post by Homerclon » Sat, 14. Jul 18, 20:17

Macht in diesem Fall keinen Unterschied, ob Datenbasis besser ist oder nicht.
Beide bestätigen das von mir behauptete. Die 1060 6GB ist in Spiele meist schneller als die 780 Ti.

Das mit den >300k bzw. >13k sind auch nicht die Benchmarks, sondern die Anzahl Nutzer die ihre Ergebnisse hochgeladen haben.
- 01100100 00100111 01101111 01101000 00100001
- Nur DL-Vertrieb? Ohne mich!

Bastelfred
Posts: 4045
Joined: Tue, 31. Aug 04, 15:31
x4

Post by Bastelfred » Sat, 14. Jul 18, 22:05

Da steht bis zu 13%, das ist nicht wirklich schneller, das merkst du gar nicht. Was mit der einen Karte ruckelt, ruckelt auch mit der anderen. Um irgend einen Unterschied zu merken muss man schon über 20%mehr fps haben, und selbst da fällt es noch kaum ins Gewicht. Aus dem Grund kaufe ich nur Karten die mindestens 50% mehr Leisten als die alte. Und halte das ganze auch immer auf einem Level wo ich auch an der kritischen Stelle im Spiel nicht unter 60 FPS komme.
Spätestens wenn man um die erste größere Fab fliegen wird, fängt es dann mit den günstigen GPU an zu ruckeln. Viel Spaß dann, und immer dran denken die Karte die das gerade nicht wuppt ist brand neu.

Kannst jetzt gerne weiter auf dem ganze Thema herumreiten, mir ist das zu albern. Kauft euch was anständiges und nicht den budget Kram. Man spart gar nichts, das meiste sind nur Milchmädchenrechnungen. Als X Veteran dürfte man mittlerweile deutlich jenseits der 30 sein, mit beiden Beinen im Leben stehen und genug Geld für solch einen Spielkram übrig haben.

User avatar
JSDD
Posts: 1378
Joined: Fri, 21. Mar 14, 20:51
x3tc

Post by JSDD » Sun, 15. Jul 18, 05:18

Bastelfred wrote:Spätestens wenn man um die erste größere Fab fliegen wird, fängt es dann mit den günstigen GPU an zu ruckeln.
nicht, wenn deine karte kein müll ist, und du bereit bist, spieleinstellungen zu ändern: beste schatten-qualität muss nicht sein, 4k auflösung auch nicht, beste shader + texturen-qualität muss alles nicht sein, 16x multisample-antialiasing auch nicht. oft merkt man kaum unterschiede zur höchsteinstellung (ggf bei texture-quali etwas, abhängig vom game) ... die graka allerdings hat n richtig großen haufen weniger arbeit zu bewältigen

beispiel:
4k = 3840 x 2160 = 8 Megapixel
1920 x 1080 = 2 Megapixel, d.h. 4x weniger pixel zum rendern, und trotzdem groß genug für nicht-hauptberufliche gamer

ps: was meinste mit billigen karten? die gtx 1060 6gb kostet etwa 300€ und ist, wenn man gaming nicht hauptberuflich macht, völlig ausreichend ... und 300€ ist für graka-verhältnisse jetzt nicht unbedinget teuer, eher mittelfeld. mit ca 500€ ist die 1070er Ti schon n ganzes stück teurer, bringt aber entsprechend mehr leistung, dazwischen gibts nix (von nvidia zumindest), es sei denn man kombiniert 2 grakas mit SLI-fähigkeit (ob das gut ist, weiß ich jetzt nicht)
To err is human. To really foul things up you need a computer.
Irren ist menschlich. Aber wenn man richtig Fehler machen will, braucht man einen Computer.


Mission Director Beispiele

Homerclon
Posts: 1305
Joined: Thu, 13. Jul 06, 16:47
x3tc

Post by Homerclon » Sun, 15. Jul 18, 13:55

Zwischen der 1060 und der 1070 Ti gibts die 1070 ab ~400€. Aber Leistungsmäßig liegt zwischen der 1070 und der 1070 Ti nicht viel, und vernachlässigbar wenig von der 1070 Ti zur 1080 (jeweils nach Referenz-Takt der Founders Edition).


Und nein, SLI rentiert sich nicht, genauso wenig Crossfire von AMD. Doppelte Leistungsaufnahme, aber im auch Bestfall nur bis zu 90% Mehrleistung ggü. einer einzelnen Karte. Im schlimmsten Fall 0% Mehrleistung. Man ist auch darauf angewiesen das die Spiele-Entwickler eine Unterstützung implementieren und optimieren. Sowohl NVIDIA als auch AMD stellen keine neuen Treiberseitige Multi-GPU-Profil-Profile zur Verfügung. Ohne ein solches Profil oder der Implementierung seitens der Spiele-Entwickler sieht es üblicherweise sehr schlecht aus mit dem nutzen der zweiten GraKa.
Dazu kommen Mikroruckler (verursacht durch ungleichmäßige Berechnungszeiten); es ist eine aufwändigere Kühlung nötig, da sich die Karten gegenseitig aufheizen; mehr als das Doppelte an Anschaffungskosten (man braucht ein stärkeres (= teureres) Netzteil.

Nutzt man eine VR-Brille ist ein Dual-GPU-Gespann vermutlich effektiv nutzbar. Da dort zwei Bilder notwendig sind, kann jede GraKa sich um ein Bild kümmern.
- 01100100 00100111 01101111 01101000 00100001
- Nur DL-Vertrieb? Ohne mich!

Xeelee2
Posts: 552
Joined: Mon, 18. Nov 13, 13:36
x4

Post by Xeelee2 » Tue, 17. Jul 18, 11:00

Nutzt man eine VR-Brille ist ein Dual-GPU-Gespann vermutlich effektiv nutzbar. Da dort zwei Bilder notwendig sind, kann jede GraKa sich um ein Bild kümmern.
Leider wird das nicht unterstützt. :cry:

------------------------------------

Zu dem Punkt Flops einer GPU.
Gerne wird darüber gesprochen (vor allem bei Konsolen) - aber wer kennt eigentlich die Formel für Flops?

Flops = CoreCount x CoreClock x 2

Also als Beispiel 1060 vs. Rx 580
GTX 1060: 1280 x 1709 x 2 = 4,37 GFlops
RX 580: 2304 x 1257 x 2 = 6,17 GFlops
https://www.techpowerup.com/gpudb/3250/ ... -1060-6-gb
https://www.techpowerup.com/gpudb/2938/radeon-rx-580

Wären Flops der Leistungsmesser einer GPU wäre die Welt einfach, denn dann wäre die RX 580 40% schneller als eine Nvidia 1060.
Aber so funktioniert es (glücklicherweise) nicht.

PS: Wer eine XBox One X sein eigen nennt und solche Flop Werte wichtig sind wird sein Ergebnis in der RX580 wiederfinden - warum wohl. :roll:
Und wer das versteht kann auch heute schon sagen, dass die neuen Generation Konsole zwischen 8-10 GFlops haben wird - je nachdem ob eine Variante des Vega 56 oder 64 Chips in das System kommen und welcher Takt erreicht wird.

-------------------------------------

Bezüglich des Disskussion ob Mittelklasse oder High End GPU:

Eine High End GPU resultiert nicht zwingend in mehr FPS und auch nicht in einer höheren möglichen Auflösung.

GTA V @ 4k kann man bereits mit einer 1050Ti problemlos realisieren. Eine 1060 hat damit überhaupt kein Problem.

Du kannst für Assassins Creed Origin eine 1060 oder 1080 (Ti) verbauen.
Mit beiden erreichst du in FullHD keine konstante 60FPS wenn du als CPU nur einen "alten" 4Kerner ala i5 6500 besitzt.

Nur immer die stärkste GPU zu kaufen kann - muss aber nicht immer eine gute Idee sein...
"Nichts ist gleichgültiger als die Ewigkeit."
Perry Rhodan

Unbekanntes Feindschiff
Posts: 654
Joined: Wed, 4. Feb 09, 17:30
x4

Post by Unbekanntes Feindschiff » Tue, 17. Jul 18, 15:56

Ich frag mich ja eh immer warum alle immer denken die Creme de la Creme an Hardware zu brauchen, damit irgendwas bei ihnen läuft. Denkt ihr etwa Egosoft entwickelt nur auf der allerneusten und allerteuersten Hardware?

Die Geschichte gab's ja damals bei Rebirth, wo sich viele reiche Kiddies(der Fakt, dass es Kiddies sind, ließ sich sehr leicht daran erkennen wie sie ihre "Kritik" formuliert hatten) beschwert haben, dass das Spiel bei ihnen nicht flüssig läuft und es stellte sich heraus, dass Egosoft einfach solcher Hardware keine Aufmerksamkeit geschenkt hatte, da weder sie selbst noch einer der Tester solch Hardware besaßen.

Homerclon
Posts: 1305
Joined: Thu, 13. Jul 06, 16:47
x3tc

Post by Homerclon » Wed, 18. Jul 18, 06:07

Xeelee2 wrote:Und wer das versteht kann auch heute schon sagen, dass die neuen Generation Konsole zwischen 8-10 GFlops haben wird - je nachdem ob eine Variante des Vega 56 oder 64 Chips in das System kommen und welcher Takt erreicht wird.
Das ist zum einen der gleiche Chip, nur das Vega 56 mit weniger Shadereinheiten auskommen muss, und zum anderen wird dieser sicherlich nicht den Weg in die Konsolen finden.
Vega wurde für den HPC-Markt entwickelt, daher auch die schlechte Effizienz. In den Vega-Karten schlummern Funktionen, die man als Otto-Normal niemals braucht (und mit den Radeon-Treibern auch nicht zur Verfügung stehen).
Die stärkste Vega-Einheit, die nicht für den HPC-Markt ist, ist im Ryzen 5-2400G verbaut (die Vega in der dieser speziellen Intel-CPU wird zwar Vega genannt, basiert aber auf Polaris (RX-400, -500, PS4, XBOne).

Aktuell geht man jedenfalls davon aus, das AMDs Navi-GPU-Architektur, welche im 1. Halbjahr 2019 auf den Markt kommen soll, in den NextGen-Konsolen zum Einsatz kommen wird.


Bei der Theoretischen Rechenleistung hast du zwei Fehler.
1. Bei der RX-580 gibst du den Basis-Takt an, damit erreicht man nicht die 6,17 sondern nur 5,79.
2. Du hast hier einen Übertragungsfehler. Im englischen Sprachraum (und manch andere Länder) verwendet man als Dezimaltrennzeichen ein Punkt, das Komma dient der leichteren Lesbarkeit großer Zahlen (ist also genau umgekehrt).
Dadurch hast du versehentlich die Leistung um den Faktor 1000 zu niedrig angegeben. Das ließe sich auch dadurch korrigieren, indem man die Leistung in TFLOPS anstatt GFLOPS angibt.
- 01100100 00100111 01101111 01101000 00100001
- Nur DL-Vertrieb? Ohne mich!

User avatar
Tamina
Moderator (Deutsch)
Moderator (Deutsch)
Posts: 4543
Joined: Sun, 26. Jan 14, 09:56

Post by Tamina » Wed, 18. Jul 18, 21:06

Gibt es irgendwelche billigen eleganten PC Gehäuse?
Bin noch am suchen. 'Billig' heißt offensichtlich meistens schlecht verarbeitet, verglast und RGB Beleuchtung.
Ich hätte das gerne anders herum, insbesondere weil ich vorhabe 99% der Zeit auf den Bildschirm zu schauen während ich den Rechner verwende.

Was ich bisher gefunden habe ist der BitFenix Shinobi, Sharkoon TG5 (nicht leuchtende Version) und Cooltek TG-01. Alle drei kosten im Moment 55€, aber der Shinobi (der mir am besten gefällt) kommt mit nur einem Lüfter, der TG5 mit ganzen vier :)

So recht überzeugt mich das überhaupt nicht, am liebsten würde ich mein altes Gehäuse weiter verwenden :(
Das ist einfach schick und elegant und robust und hat ein Ablagefach neben den USB Steckern - Genial! *-*.
Leider fehlt der ganze schnick schnack wie Staubfilter, USB3.0 und das Netzteil ist oben... was schlecht ist(?).


Nebenbei, sind Staubfilter eigentlich wirklich Filter oder ist damit nur das grobe Gitter am Gehäuse gemeint?

Code: Select all

Und wenn ein Forenbösewicht, was Ungezogenes spricht, dann hol' ich meinen Kaktus und der sticht sticht sticht.
  /l、 
゙(゚、 。 7 
 l、゙ ~ヽ   / 
 じしf_, )ノ 

User avatar
[FFCW]Urizen
Posts: 342
Joined: Sat, 9. Apr 11, 01:42
x4

Post by [FFCW]Urizen » Wed, 18. Jul 18, 21:50

Tamina wrote:Gibt es irgendwelche billigen eleganten PC Gehäuse?
Bin noch am suchen. 'Billig' heißt offensichtlich meistens schlecht verarbeitet, verglast und RGB Beleuchtung.
Ich hätte das gerne anders herum, insbesondere weil ich vorhabe 99% der Zeit auf den Bildschirm zu schauen während ich den Rechner verwende.
Da sollte es mehr als genug Gehäuse geben, die deinen Anforderungen entsprechen.
Was ich bisher gefunden habe ist der BitFenix Shinobi, Sharkoon TG5 (nicht leuchtende Version) und Cooltek TG-01. Alle drei kosten im Moment 55€, aber der Shinobi (der mir am besten gefällt) kommt mit nur einem Lüfter, der TG5 mit ganzen vier :)
Die Anzahl der Lüfter ist irrelevant. Wichtiger ist ein geordneter Luftstrom und die Effizienz der verwendeten Lüfter. Es gibt welche die röhren wie ne Jetturbine und erzeugen nur eine Prise und dann gibt es welche die jede Vakuumpumpe alt aussehen lassen und das flüsterleise.
So recht überzeugt mich das überhaupt nicht, am liebsten würde ich mein altes Gehäuse weiter verwenden :(
Das ist einfach schick und elegant und robust und hat ein Ablagefach neben den USB Steckern - Genial! *-*.
Leider fehlt der ganze schnick schnack wie Staubfilter, USB3.0 und das Netzteil ist oben... was schlecht ist(?).
Netzteil oben ist nicht schlecht, da es von vornherein als teil des Kühlkreislaufes konzipiert wurde. Netzteil im Boden macht z.B. Sinn wenn du einen Radiator im Deckel des Gehäuses verbauen willst.

Nebenbei, sind Staubfilter eigentlich wirklich Filter oder ist damit nur das grobe Gitter am Gehäuse gemeint?
Bei mir ist es nur ein Gitter und verrichtet seinen Job nahezu einwandfrei. In anderen Worten, es reicht den Lüfter alle paar Jahre zu reinigen. ( Gehäuse ist Coolermaster HAF 922. ) Im Vergleich dazu muss ich den Hecklüfter pro jahr reinigen, weil der den Grossteil der Luft über die Seitenwand bekommt ( die Seitenwand ist ein Schweizer Käse ).
Insanity is just another form of brilliance!

User avatar
arragon0815
Posts: 16681
Joined: Mon, 21. Aug 06, 13:17
x4

Post by arragon0815 » Wed, 18. Jul 18, 23:10

[FFCW]Urizen wrote:
Nebenbei, sind Staubfilter eigentlich wirklich Filter oder ist damit nur das grobe Gitter am Gehäuse gemeint?
Bei mir ist es nur ein Gitter und verrichtet seinen Job nahezu einwandfrei. In anderen Worten, es reicht den Lüfter alle paar Jahre zu reinigen. ( Gehäuse ist Coolermaster HAF 922. ) Im Vergleich dazu muss ich den Hecklüfter pro jahr reinigen, weil der den Grossteil der Luft über die Seitenwand bekommt ( die Seitenwand ist ein Schweizer Käse ).
Das Gitter beeinträchtigt den Luftstrom nicht so stark, richtige Staubfilter werden in der Filterleistung besser je dreckiger sie werden, was aber bedeutet das sie immer weniger Frischluft ins Gehäuse lassen würden, was nicht gerade optimal ist :wink:

Deswegen sind die Gitter gute Staubfilter und sollten auch einfach zu reinigen sein weil nur magnetisch zum einfach Abziehen befestigt....

EDIT:
Wenn ich bei Amazon filtere, dann gibt es auch komplett undurchsichtige Gehäuse: Daaaaah
AMD Ryzen 9™ 7900X3D // PNY GeForce RTX™ 4070 12GB Verto // Kingston FURY DIMM 32 GB DDR5-5200 Kit // GIGABYTE B650E AORUS MASTER // Enermax ETS-T50 AXE Silent Edition // SAMSUNG 980 PRO 1 TB SSD + Seagate ST2000DM008 2 TB // Thermaltake Toughpower GF3 1000W // Microsoft Windows 11 OEM // 65" Sony 4K Gaming TV, 120 Hz.
X4 rennt wie Sau in 4K :eg:

Homerclon
Posts: 1305
Joined: Thu, 13. Jul 06, 16:47
x3tc

Post by Homerclon » Thu, 19. Jul 18, 00:31

Tamina wrote:[...] und das Netzteil ist oben... was schlecht ist(?).
"Schlecht" für das Netzteil, da das dann wärmer wird. Wobei die Netzteile so konzipiert sind (sein sollten), das ihnen das nicht wirklich etwas ausmacht.
Nebenbei, sind Staubfilter eigentlich wirklich Filter oder ist damit nur das grobe Gitter am Gehäuse gemeint?
Das grobe Gitter, das Teil der Gehäusewände ist, wird als Mesh bezeichnet. Und nein, das sind nicht die Staubfilter (wobei Mesh bei meinem Gehäuse tatsächlich etwas Staub abhält). Wie die Staubfilter aussehen und wie gut die sind, hängt vom Hersteller ab, und in der Regel von der Preisklasse.


Definiere billig. Gehäuse mit deinen Anforderungen gibts jedenfalls ab ~28€, zzgl. Versand.

Persönlich würde ich auch auf eine vorinstallierte Schalldämmung achten. Das kostet aber knapp 20€ Aufschlag.
Mit großen Lüftern lässt sich auch bei weniger Drehzahl (potentiell weniger Lärm) gleichviel bis mehr Luft bewegen. Also dürfen die Lüfter ruhig etwas größer sein. Bei 140mm gibts auch viele gute Lüfter auf dem Markt (die kein Vermögen kosten). Falls das Gehäuse keine / zu wenige, bzw zu laute mitbringt oder die vorinstallierten mal kaputt gehen.
- 01100100 00100111 01101111 01101000 00100001
- Nur DL-Vertrieb? Ohne mich!

User avatar
arragon0815
Posts: 16681
Joined: Mon, 21. Aug 06, 13:17
x4

Post by arragon0815 » Thu, 19. Jul 18, 14:09

Homerclon wrote:
Nebenbei, sind Staubfilter eigentlich wirklich Filter oder ist damit nur das grobe Gitter am Gehäuse gemeint?
Das grobe Gitter, das Teil der Gehäusewände ist, wird als Mesh bezeichnet. Und nein, das sind nicht die Staubfilter (wobei Mesh bei meinem Gehäuse tatsächlich etwas Staub abhält). Wie die Staubfilter aussehen und wie gut die sind, hängt vom Hersteller ab, und in der Regel von der Preisklasse.
Wir meinen schon die feinen Gitter , die über den groben Gittern liegen und meistens magnetisch dort befestigt sind :wink:
(wenn man ein entsprechendes Gehäuse kauft)

Wie sowas in der Art: Schaustdu hier mal klick
AMD Ryzen 9™ 7900X3D // PNY GeForce RTX™ 4070 12GB Verto // Kingston FURY DIMM 32 GB DDR5-5200 Kit // GIGABYTE B650E AORUS MASTER // Enermax ETS-T50 AXE Silent Edition // SAMSUNG 980 PRO 1 TB SSD + Seagate ST2000DM008 2 TB // Thermaltake Toughpower GF3 1000W // Microsoft Windows 11 OEM // 65" Sony 4K Gaming TV, 120 Hz.
X4 rennt wie Sau in 4K :eg:

Locked

Return to “X4: Foundations”