WvW bei max Grafikeinstellungen/Hardware?

WvW bei max Grafikeinstellungen/Hardware?

in Technische und account-spezifische Fragen

Posted by: tarrantino.4061

tarrantino.4061

Liebe Community!

Ich brauche bitte paar Inputs von euch zur Optimierung meines Rechners. Mir geht es beim Optimieren insbesondere darum meine FPS zu erhöhen, sodass es mir eventuell sogar möglich ist im WVW mit höchster Grafikeinstellungen zu spielen.

(Derzeit: fast niedrigste Grafikeinstellungen und im WVW komme ich auf 20-50 FPS – je nach Zerggrößen etc..)

Habe derzeit folgenden Gaming-Rechner:
Intel Core i7-3770, 3.50GHz
32 GB RAM
Nvidia Geforce GTX 680 mit 4Gb
SSD-Platte wo der Gw2 Hauptaccount drauf installiert ist
Win 8.1
Bandbreite: bis zu 150mbit/s

a) Wo müsste ich aus eurer Sicht optimieren um meine FPS zu erhöhen, bei vl sogar maximalen Grafikeinstellungen?
b) Würde es Sinn machen meine Geforce GTX 680 z.b. gegen eine Geforce 970er oder so auszutauschen? (Hab mal irgendwo gelesen dass bei GW2 die Grafikkartenleistung ausschlaggebend ist…)

Ja wenn ihr ein paar Optimierungsinputs habt bin ich euch sehr dankbar.

Vielen Dank,

Lg Karrakas

[EoW] Eyes of Wars
Team Kodasch

WvW bei max Grafikeinstellungen/Hardware?

in Technische und account-spezifische Fragen

Posted by: Aquilius.9153

Aquilius.9153

Kurz und knapp, du kannst eig nichts machen.
Ich selbst habe einen i7 4770 und ne GTX770, spiele zwar im WvW (und überall auch) mit max Settings, die FPS Einbrüche im Zergfight bleiben jedoch bestehen.
Begründung:
GW2 ist ein 32 Bit Prozess → kann nur 4gig RAM belegen. Des weiteren nutzt er nicht das Multithreading gescheit aus, weshalb eine Aufrüstung der CPU auch hinfällig ist. GW2 ist auch eher Prozessor limitiert und nicht Grafikkarten limitiert, sprich die Graka muss eher auf die Berechnungen des Prozessors warten als umgekehrt.
Wenn du also keinen 64Bit Client findest (Welchen es nicht gibt), wirst du darauf hoffen müssen, dass Anet den 32Bit Client weiter optimiert, oder aber einen 64Bit Client veröffentlicht, wovon ich eher nicht ausgehen würde.

Beste Grüße,

Frigerius

WvW bei max Grafikeinstellungen/Hardware?

in Technische und account-spezifische Fragen

Posted by: tarrantino.4061

tarrantino.4061

Danke Frigerius für deinen Input. Letztendlich sagst du mir dass ich gar keine Chance habe WvW mit höchsten Grafikeinstellungen ohne FPS-Einbrüche zu spielen.. =(
Ich hab im WvW immer wieder mal von Leuten gehört die ihre 50-90 FPS haben und mit maximalen Grafikeinstellungen spielen… Deswegen dachte ich mir, dass es sicher auch ein wenig Hardware-abhängig sein muss…

Auf jeden Fall vielen Dank u lg Karrakas

p.s. Vl gibts den 64bit Client ja bald im Gemstore für 5000 Gems g

[EoW] Eyes of Wars
Team Kodasch

(Zuletzt bearbeitet am von tarrantino.4061)

WvW bei max Grafikeinstellungen/Hardware?

in Technische und account-spezifische Fragen

Posted by: Ravenhunt.2735

Ravenhunt.2735

Wenn Spieler behaupten sie hätten in einem Zerg 50FPS > Wikipediaeintrag: Forentrolle und/oder kleines Ego.

Es gibt KEIN System das WvW Zergs oder Weltbosszergs flüssig mit mehr als 20-25 FPS schafft bei maximaler Spielerzahl. Ich wiederhole, kein System.
Und ich habe hier die Angaben absichtlich noch schön geredet. Für viele sind selbst 20 FPS utopisch hoch in einem Zerg.

Und was bitte soll ein 64Bit Client bei GW2 wirklich bringen?
Es behebt nicht das grundlegende Problem das für die Leistungseinbrüche verantwortlich ist.
Irgendjemand hat damit angefangen da ja auch WoW einen 64Bit Clienten hat.
Also braucht GW2 auch einen.

Der Unterschied wird in GW2 kaum messbar sein, so wie in jedem anderen Spiel auch.
Die OOM Fehler die manche Spieler haben, haben andere Gründe und bestimmt nicht das GW2 zu wenig Arbeitsspeicher adressieren könnte.

WAS etwas bringen würde, wäre eine neue API, anstatt der alten Direct X9 Schnittstelle.

Kurze Erklärung:

DirectX9 verwendet für viele Berechnungen verschiedenster Effekte im Spiel noch umständlich die CPU, da damalige Grafikartenprozessoren die heutigen Berechnungstechniken wie sie z. B. von DirectX11 verwendet werden noch nicht in Hardware unterstützt haben.
Es musste umständlich die CPU herhalten.
Durch die Weiterentwicklung der API, der Leistung der Grafikkarten und deren Möglichkeiten wurden Berechnungen mehr und mehr auf die GPU der Karte verlagert.
Und es hat sich entsprechend auch die Architektur der GPU darauf angepasst.
Viele hunderte kleine parallele Recheneinheiten, die alle entsprechende Berechnungen ausführen können, dynamisch verwendet werden können wenn das Spiel dies fordert. Jeh nach Programmierung.
Ein Grund warum heutige Grafikkarten auch Physikberechnungen abarbeiten können, soweit im Spiel die entsprechende Funktion implementiert wurde die diese Arbeit an die GPU adressiert und davon Nutzen macht.

Kurz gesagt, DirectX9 schiebt viel Arbeit auf die CPU, statt sie der GPU zu geben.
Erst neuere APIs lassen diese rechenintensiven Arbeiten die GPU erledigen.

Nur… mal eben ein Spiel umzuschreiben damit es diesen Nutzen verwenden kann ist keine Sache von mal eben paar Tagen Programmierarbeit.

Und ob das ANet in Angriff nehmen wird ist eine Frage der Arbeitskraftauslastung.
Wenn sie kein Team übrig haben das daran arbeitet, sieht das erstmal schlecht aus damit.

PS:
Das einzige was dir etwas bringen würde, wäre auf einen i7 4790K umzusteigen.
Ob der Preis aber die Mehrleistung rechtfertigt… nein.
Vielleicht hast du dann 2-4 FPS mehr, vielleicht… mehr aber auch nicht.
Maximale Spielerzahl in solchen Zerghaufen ist nicht spielbar und wird es lange Zeit auch nicht sein.

(Zuletzt bearbeitet am von Ravenhunt.2735)