Mein Acer Nitro 5 erbringt zu wenig Leistung
Tinkerer
Ich hab letzte Woche die Entscheidung getroffen, meinen Acer Predator 17 durch einen Acer Nitro 5 zu ersetzen, da ich diesen flexibler fürs Studium und fürs Spielen einsetzen kann. Habe mich im Endeffekt für den AN517-41-R9S5 entschieden. Hab den Laptop gestern geliefert bekommen und als erstes den klassischen Test gemacht, wie viele FPS ich denn in Minecraft bekomme.
Da hatte ich dann schon das erste Problem, nämlich hab ich mit Standardeinstellungen nur 150 FPS bekommen, was bei weitem weniger ist als das, was der Laptop mit seiner 3080 ja eigentlich erreichen könnte. Hab eine Stunde lang versucht, herauszufinden warum das so war, es dann aber irgendwann einfach gelassen
Hatte über Nacht dann alle möglichen Spiele runtergeladen, um die FPS dort zu testen, hier tauchten dann weitere Probleme auf:
Call of Duty Black Ops 3: FPS droppen alle 10 Sek von 200+ auf knapp 80
Call of Duty Modern Warfare: Selbes Problem, nur dass es mich von 150 auf 100 schmeißt
GTA 5: Während des Spiels konstante 150+ FPS, sobald ich das Menü öffne schmeißt es mich auf 10 FPS runter.
Meine Vermutung ist immer noch, dass Optimus irgendwie dran Schuld ist, habe aber global im control panel eingestellt, dass Spiele die GPU anstatt der IGPU nutzen sollen. Minecraft wird mir in den Prozessen, die die GPU nutzen auch angezeigt, aber die Performance macht da einfach keinen Sinn. 150 FPS ohne irgendwas (Shader, texture pack, etc.) sind für eine 3080 einfach zu wenig, das hat selbst meine alte 1060 6gb im Predator 17 geschafft. Hab auch schon gefühlt alles probiert, hatte Windows neu aufgesetzt, meine GPU Treiber mit DDU deinstalliert, komplett neu installiert, die BIOS und Firmware Updates gemacht, aber nix hat funktioniert, deswegen wollte ich einfach mal hier fragen, ob jemand eine Lösung bzw. das selbe Problem hat.
Antworten
-
Ach ja und noch etwas, ist es normal, dass die Akkulaufzeit vom Nitro 5 so unterirdisch schlecht ist? Hatte heut in der Uni mit Bildschirm auf niedrigster Stufe, Tastaturbeleuchtung aus, Energiespar- und Stromsparmodus nur 1h 40min... zum Glück haben wir Steckdosen. Aber was ist denn mit den angegebenen 8h??
0 -
Moin Sandro,
Installiere dir doch mal GPU-Z und CPU-Z und schau mal wie sich die Temperaturen verhalten.
https://www.heise.de/download/product/gpu-z-53217
https://www.heise.de/download/product/cpu-z-19564
Lg
Vincent0 -
Du kannst auch mal die Auslastung bei CPU und GPU im Task Manager beobachten. Hierbei wäre wichtig zu erfahren wie sich der CPU takt verhält.0
-
Hi SandroStubner ,ich kenne das Notebookmodell persönlich nicht. Kennst du den Test von Notebookcheck für exakt dein Modell schon? Kannst ihn dir ja mal durchlesen, dort sind auch Benchmarks hinterlegt, damit du vergleichen kannst:Aus meiner Sicht: Ich finde es grundsätzlich "übel", daß die neuen RTX Grakas, wie z.B. die RTX 3080, von den OEM Herstellern nach deren Vorstellung bezüglich der TDP (und damit der Leistungsfähigkeit) eingestellt werden können, der Kunde aber im Normalfall nicht weiß, wieviel Strom das jeweilige Notebookmodell für die Graka "zugestanden" bekommt.Ich gehe davon aus, daß Acer die TDP nicht absenkt, um die Kunden zu verärgern, sondern damit das Gerät nicht überhitzt. Aber, daß man sich vor dem Kauf quasi nicht informieren kann (es sei denn durch solche Tests), wie die Graka vom Hersteller "eingestellt" wurde, finde ich (ich wiederhole mich) "übel"!GrußJochenPH18-72 https://www.3dmark.com/3dm/118366992?"There's more to the picture than meets the eye ..."_______________________________________________
Bitte bei der hilfreichsten Antwort die Markierung als Lösung nicht vergessen; du hilfst damit anderen, die das selbe Problem haben!
"Likes"? Warum nicht! ;-)
_____________________________________________
Ich bin kein Acer Mitarbeiter! :-)2 -
Kno63 schrieb:Hi SandroStubner ,ich kenne das Notebookmodell persönlich nicht. Kennst du den Test von Notebookcheck für exakt dein Modell schon? Kannst ihn dir ja mal durchlesen, dort sind auch Benchmarks hinterlegt, damit du vergleichen kannst:0
-
VincentPohlmann schrieb:Moin Sandro,
Installiere dir doch mal GPU-Z und CPU-Z und schau mal wie sich die Temperaturen verhalten.
https://www.heise.de/download/product/gpu-z-53217
https://www.heise.de/download/product/cpu-z-19564
Lg
VincentZu der Nachricht mit dem CPU-Takt: Sieht in Spielen eigentlich relativ normal aus, erreicht jetzt nicht die angegebenen 4,2Ghz boost clock, dafür ist die CPU im idle auf knapp unter 4GHz und dabei bleibt es generell auch.0 -
Ich kann halt zu den von dir erwähnten 150 fps bei Minecraft nix sagen, ich hab das nie gespielt.Und natürlich sollte dein Modell mit der RTX 3080 bei 100 W eine sehr anständige Performance bieten.Im verlinkten Artikel steht:Mit Optimus sollte das Problem imho nichts zu tun haben; entweder rendert die Igpu oder die Nvidia, die beeinflussen sich nicht gegenseitig.GrußJochenPH18-72 https://www.3dmark.com/3dm/118366992?"There's more to the picture than meets the eye ..."_______________________________________________
Bitte bei der hilfreichsten Antwort die Markierung als Lösung nicht vergessen; du hilfst damit anderen, die das selbe Problem haben!
"Likes"? Warum nicht! ;-)
_____________________________________________
Ich bin kein Acer Mitarbeiter! :-)0 -
Kno63 schrieb:Mit Optimus sollte das Problem imho nichts zu tun haben; entweder rendert die Igpu oder die Nvidia, die beeinflussen sich nicht gegenseitig.Gruß
Die Vermutung mit Optimus kann ich sogar noch halbwegs begründen: Sobald der Laptop die GPU verwendet, gibt es immer kurz einen Blackscreen (ergo, ich starte ein Spiel, kurzer Blackscreen, weil die GPU greift - kann nicht an Fullscreen liegen, da ich meistens in borderless windowed spiele & normalen windowed modus auch probiert hab, passiert genau das selbe). Bei Minecraft passiert das nicht, weswegen ich irgendwie vermute, dass es die GPU nicht einschaltet, weil es Minecraft nicht als Spiel erkennt, da es einfach nur als ein Prozess von Java ausgeführt wird. Anders kann ich es mir nicht erklären, ich weiß nur, dass ich zu 100% mehr FPS haben SOLLTE.
Hab mir auch mal Videos von Minecraft mit einer RTX 3060TI angeschaut, die Leistungstechnisch das Äquivalent zur Laptop 3080 100w sein sollte und da kamen ganz andere Werte raus. Da wurde auf 4K + Shader und den selben Settings schon allein 100 FPS übertroffen. Ohne irgendwelche Mods auf 1080p wurden oft genug 300 FPS überschritten und das mit 20% GPU-Nutzung. Fernab von meinen Werten und auch eher das, was ich mir von einer Laptop 3080 erhofft habe.0 -
Habe jetzt mal jedes installierte Spiel durchgetestet und bin teilweise auf extrem komische Dinge gestoßen. Das wird jetzt ein Fluss an Informationen, aber vllt. versteht hier jemand meiner Ergebnisse besser als ich und kann mir sagen, warum was so ist, wie es ist. VLlt. gibt es ja irgendwelche Zusammenhänge, die ich nicht sehe.
Vorab: Alle Tests waren auf 1080p, ohne Vsync, Lüfter auf max. Geschwindigkeit. CPU immer auf knapp 4GHz; Tests liefen immer genau eine Runde/ 15-30 Min;
#1 - Minecraft
Standard Settings, ohne texture pack & shader, normale Welt
GPU-Nutzung: 50%, 60°C max.
max. 65 Watt, avg. 60 Watt
avg. 150 FPS
Anmerkung: eindeutig zu wenig FPS
#2 - Battlefield 4
Ultra Settings, 150% Auflösungsskalierung, Silk Road TDM
GPU-Nutzung: 95-100%, 60°C max.
max. 100w, avg. 95 Watt
avg. 180 FPS
Anmerkung: /
#3 - Battlefield 5
High Settings, ohne RT & DLSS, Narvik TDM
GPU-Nutzung: 75%-90%, 65°C max.
max. 90w, avg. 80w
avg. 130 FPS
Anmerkung: Wieso ist der Unterschied von GPU usage & Watt im Vergleich zu BF4 so unterschiedlich, wenn beide Spiele auf der Frostbyte Engine laufen. Sollte doch eigentlich nicht so einen großen Unterschied spielen, oder?
#4 - CoD MW 2019
High Settings, ohne RT & DLSS, Shipment TDM
GPU-Nutzung: 95-100%, 67°C max.
max. 100w, avg. 90w
avg. 165 FPS
Anmerkung: /
#6 - CoD MW 2019 Warzone Modus
Selbe settings wie im Multiplayer-Modus, Solo BR
GPU-Nutzung: 90%, 65°C max.
max. 90w, avg. 80w
avg. 110 FPS
Anmerkung: Ab und zu ist die GPU-Nutzung auf 55-60% gefallen, dadurch auch die FPS auf unter 80. Warum? Und wieso nutzt das Spiel weniger von meiner GPU/ warum ist die Leistungsaufnahme der GPU niedriger als beim Multiplayer-Modus, wenn es doch das selbe Spiel ist.
#7 - CoD Black Ops 3
max. Settings, Nuketown TDM
GPU-Nutzung: 50-100%, 60°C
max. 80w, avg. 70w
avg. 80-150 FPS
Anmerkung: Alle 10 Sekunden ist meine GPU-Nutzung von 95-100% auf 50% gefallen, was zu einem extremen Ruckler und Frame-Drop auf knapp 80 FPS geführt hat. Woran könnte das liegen?
#8 - PUBG
Ultra-High, Taego, First Person
GPU-Nutzung: 90%, 75°C max.
max. 100w, avg. 90w
avg. 120 FPS
Anmerkung: Teilweise ist die GPU sogar komischerweise auf 105w gesprungen
#9 - Escape from Tarkov
High/Ultra Settings, Woods
GPU-Nutzung: 80-100%, 78°C max.
max. 95w, avg. 90w
avg. 80-90 FPS, je nach Standort auf der Karte
Anmerkung: nur 60% GPU-Nutzung mit SSAO aus, 80-100% mit SSAO auf hoch
#10 - GTA 5
High/Ultra Settings, GTA Online, 20 Spieler in der Sitzung
GPU-Nutzung: 60-100%, 70°C max.
max. 100w, avg. 60w
avg. 90 FPS
Anmerkung: Im Apartment war die GPU-Nutzung und Leistungsaufnahme bei 95-100% & 100w, sobald ich das Apartment verlassen habe, ist die Nutzung und Leistungsaufnahme auf 60-70% & 60w gesunken. Sollte das nicht eigentlich genau anders rum sein, im Apartment muss ja deutlich weniger gerendert werden, als außerhalb.
Außerdem: im Menü ist die Nutzung auf 10% und die Leistungsaufnahme auf 25w gesunken, was auch die 10 FPS erklärt, die ich im Hauptpost erwähnt habe. Kann aber nichts finden, woran das genau liegt.
Finde die Werte im allgemeinen ganz komisch. In manchen Spielen wird die GPU komplett genutzt, manche andere Spiele nutzen diese nur halb. Klar gibt es Spiele, die eher CPU, statt GPU-lastig sind, aber das erklärt für mich nicht, warum Spiele, die auf der selben Engine laufen, so unterschiedliche Verhalten aufweisen (siehe Battlefield 4 & 5 oder CoD MW & Warzone). Wie gesagt, ich finde keine Gründe für das verhalten, hab die Settings schon so angepasst, dass die GPU bisschen mehr beansprucht wird, aber von der 100% GPU-Nutzung bin ich teilweise noch extrem weit entfernt.0 -
Moin
Die GPU Leistung scheint eigentlich normal zu sein (80-100% Auslastung sind Perfekt). Es wäre gut zu erfahren wie deine CPU Auslastung und Temperatur sich bei den spielen verhält.
Teste sonst auch nochmal mit Core Temp und Prime95
https://www.heise.de/download/product/prime95-36233
https://www.heise.de/download/product/core-temp-49834
0 -
Teste sonst auch nochmal mit Core Temp und Prime95
Hab mal Prime95 durchlaufen lassen, Anfangs normal auf 4GHz mit den angegebenen 54w.
Als die CPU 90°C erreicht hat, hat sie begonnen zu thermal throttlen und ist mit allen Kernen auf ~3-3,1GHz (teilweise sogar auf 2,7GHz) runter und blieb dort auch, selbst als die Temperaturen auf 70°C gesunken sind. Die CPU ist dann auch nicht mehr auf ihre 54w gestiegen, sondern hatte bei 35w scheinbar ne harte Grenze. Scheint zu thermal throttlen, damit aber dann nicht mehr aufzuhören.
Was ich komisch fand, direkt als ich den Stresstest gestoppt hab, sind mir fast alle Kerne auf 4,4 GHz gesprungen o.O
0 -
VincentPohlmann schrieb:Die GPU Leistung scheint eigentlich normal zu sein (80-100% Auslastung sind Perfekt). Es wäre gut zu erfahren wie deine CPU Auslastung und Temperatur sich bei den spielen verhält.
#1 - Minecraft
10-20% CPU-Auslastung, 3,2GHz, 8-15w, 60-70°C
#2 - Battlefield 4
30% CPU-Auslastung, 3,9GHz, 25-30w, 80-90°C
#3 - Battlefield 5
60-70% CPU-Auslastung, 3,7GHz, 25-30w, 80-90°C
#4 - CoD MW 2019
50% CPU-Auslastung, 3,8GHz, 25-30w, 75-85°C
#5 - CoD Warzone
70% CPU-Auslastung, 3,8GHz, 30-35w, 80-90°C
#6 - CoD Black Ops 3
30-100% CPU-Auslastung, 3,5GHz, 15-30w, 70-80°C
Kann mir die Spikes auf 100% Auslastung nicht erklären, die passieren immer dann zeitgleich, wenn die GPU-Auslastung/ Watt sinkt... komisch
#7 - Escape from Tarkov
30-50% CPU-Auslastung, 4GHz, 25-35w, 70-85°C
#8 - GTA 5
20-35% CPU-Auslastung, 3,8GHz, ~20w, 75-85°C
CPU ist eigentlich nie so wirklich ausgelastet, die Frequenzen scheinen normal zu sein & die Temperaturen... ja naja, geht noch so halb, ab 90°C merkt man halt trotzdem, dass die CPU anfängt zu thermal throttlen. Finde das bisschen zu vorsichtig, da der Ryzen 7 5800H erst ab 105°C seine Maximaltemperatur hat. Mein alter i7-6700HQ hatte ne max. Temperatur von 100°C, ab 97°C hat das thermal throttlen angefangen. Ist jetzt nicht optimal, aber nen Spielraum von 15°C ist jetzt auch bisschen zu vorsichtig gewählt. Aber darum geht es ja nicht, kann jedenfalls aus den CPU-Werten weniger komische Sachen rausziehen, als an den GPU-Werten1