Mein Acer Nitro 5 erbringt zu wenig Leistung

SandroStubner
SandroStubner Member Beiträge: 8

Tinkerer

Moin!

Ich hab letzte Woche die Entscheidung getroffen, meinen Acer Predator 17 durch einen Acer Nitro 5 zu ersetzen, da ich diesen flexibler fürs Studium und fürs Spielen einsetzen kann. Habe mich im Endeffekt für den AN517-41-R9S5 entschieden. Hab den Laptop gestern geliefert bekommen und als erstes den klassischen Test gemacht, wie viele FPS ich denn in Minecraft bekomme.

Da hatte ich dann schon das erste Problem, nämlich hab ich mit Standardeinstellungen nur 150 FPS bekommen, was bei weitem weniger ist als das, was der Laptop mit seiner 3080 ja eigentlich erreichen könnte. Hab eine Stunde lang versucht, herauszufinden warum das so war, es dann aber irgendwann einfach gelassen

Hatte über Nacht dann alle möglichen Spiele runtergeladen, um die FPS dort zu testen, hier tauchten dann weitere Probleme auf:
Call of Duty Black Ops 3: FPS droppen alle 10 Sek von 200+ auf knapp 80
Call of Duty Modern Warfare: Selbes Problem, nur dass es mich von 150 auf 100 schmeißt
GTA 5: Während des Spiels konstante 150+ FPS, sobald ich das Menü öffne schmeißt es mich auf 10 FPS runter.

Meine Vermutung ist immer noch, dass Optimus irgendwie dran Schuld ist, habe aber global im control panel eingestellt, dass Spiele die GPU anstatt der IGPU nutzen sollen. Minecraft wird mir in den Prozessen, die die GPU nutzen auch angezeigt, aber die Performance macht da einfach keinen Sinn. 150 FPS ohne irgendwas (Shader, texture pack, etc.) sind für eine 3080 einfach zu wenig, das hat selbst meine alte 1060 6gb im Predator 17 geschafft. Hab auch schon gefühlt alles probiert, hatte Windows neu aufgesetzt, meine GPU Treiber mit DDU deinstalliert, komplett neu installiert, die BIOS und Firmware Updates gemacht, aber nix hat funktioniert, deswegen wollte ich einfach mal hier fragen, ob jemand eine Lösung bzw. das selbe Problem hat.

Antworten

  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Ach ja und noch etwas, ist es normal, dass die Akkulaufzeit vom Nitro 5 so unterirdisch schlecht ist? Hatte heut in der Uni mit Bildschirm auf niedrigster Stufe, Tastaturbeleuchtung aus, Energiespar- und Stromsparmodus nur 1h 40min... zum Glück haben wir Steckdosen. Aber was ist denn mit den angegebenen 8h??
  • VincentPohlmann
    VincentPohlmann Member Beiträge: 28 Enthusiast WiFi Icon
    Moin Sandro,

    Installiere dir doch mal GPU-Z und CPU-Z und schau mal wie sich die Temperaturen verhalten.

    https://www.heise.de/download/product/gpu-z-53217
    https://www.heise.de/download/product/cpu-z-19564

    Lg
    Vincent
  • VincentPohlmann
    VincentPohlmann Member Beiträge: 28 Enthusiast WiFi Icon
    Du kannst auch mal die Auslastung bei CPU und GPU im Task Manager beobachten. Hierbei wäre wichtig zu erfahren wie sich der CPU takt verhält.
  • Kno63
    Kno63 ACE Beiträge: 15,228 Trailblazer
    ich kenne das Notebookmodell persönlich nicht. Kennst du den Test von Notebookcheck für exakt dein Modell schon? Kannst ihn dir ja mal durchlesen, dort sind auch Benchmarks hinterlegt, damit du vergleichen kannst:



    Aus meiner Sicht: Ich finde es grundsätzlich "übel", daß die neuen RTX Grakas, wie z.B. die RTX 3080, von den OEM Herstellern nach deren Vorstellung bezüglich der TDP (und damit der Leistungsfähigkeit) eingestellt werden können, der Kunde aber im Normalfall nicht weiß, wieviel Strom das jeweilige Notebookmodell für die Graka "zugestanden" bekommt.
    Ich gehe davon aus, daß Acer die TDP nicht absenkt, um die Kunden zu verärgern, sondern damit das Gerät nicht überhitzt. Aber, daß man sich vor dem Kauf quasi nicht informieren kann (es sei denn durch solche Tests), wie die Graka vom Hersteller "eingestellt" wurde, finde ich (ich wiederhole mich) "übel"!
    Gruß
    Jochen
    "There's more to the picture than meets the eye ..."
     _______________________________________________
    Bitte bei der hilfreichsten Antwort die Markierung als Lösung nicht vergessen; du hilfst damit anderen, die das selbe Problem haben!
    "Likes"? Warum nicht! ;-)
    _____________________________________________
    Ich bin kein Acer Mitarbeiter!  :-)

  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Kno63 schrieb:
    ich kenne das Notebookmodell persönlich nicht. Kennst du den Test von Notebookcheck für exakt dein Modell schon? Kannst ihn dir ja mal durchlesen, dort sind auch Benchmarks hinterlegt, damit du vergleichen kannst:


    Hatte mir den Test vor dem Kauf durchgelesen, klang alles - zumindest für den Preis - ganz in Ordnung. Weiß nicht, ob das da drin steht, oder ob das erst im Folgeartikel war, aber Acer hat ja im Nachhinein die TGP von 85w auf 100w via Firmware-Update angehoben, deswegen sollte der Laptop ja für 3080er Modelle mittlerweile ziemlich durchschnittlich abschneiden. Deswegen finde ich es halt umso komischer, dass er dann teilweise SO unterdurchschnittlich performed. Zumindest was z.B Minecraft angeht. 100w TGP hin oder her, 150 FPS ist für ein Spiel mit so einfacher Grafik einfach nicht passend.
  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Moin Sandro,

    Installiere dir doch mal GPU-Z und CPU-Z und schau mal wie sich die Temperaturen verhalten.

    https://www.heise.de/download/product/gpu-z-53217
    https://www.heise.de/download/product/cpu-z-19564

    Lg
    Vincent
    Hatte ich gestern Testweise schon gemacht, GPU geht eigentlich nicht über 70 Grad, hatte nur bei nem Benchmark mal 75 Grad gesehen. CPU je nach Lüfterprofil zwischen 80 und 90, nur ein Kern hat die 90 Grad überschritten, hatte aber ne Maximaltemperatur von 91 Grad. 
    Zu der Nachricht mit dem CPU-Takt: Sieht in Spielen eigentlich relativ normal aus, erreicht jetzt nicht die angegebenen 4,2Ghz boost clock, dafür ist die CPU im idle auf knapp unter 4GHz und dabei bleibt es generell auch.
  • Kno63
    Kno63 ACE Beiträge: 15,228 Trailblazer
    bearbeitet Oktober 2021

    Ich kann halt zu den von dir erwähnten 150 fps bei  Minecraft nix sagen, ich hab das nie gespielt.
    Und natürlich sollte dein Modell mit der RTX 3080 bei 100 W eine sehr anständige Performance bieten.
    Im verlinkten Artikel steht:


     

    Mit Optimus sollte das Problem imho nichts zu tun haben; entweder rendert die Igpu  oder die Nvidia, die beeinflussen sich nicht gegenseitig.
    Gruß
    Jochen
    "There's more to the picture than meets the eye ..."
     _______________________________________________
    Bitte bei der hilfreichsten Antwort die Markierung als Lösung nicht vergessen; du hilfst damit anderen, die das selbe Problem haben!
    "Likes"? Warum nicht! ;-)
    _____________________________________________
    Ich bin kein Acer Mitarbeiter!  :-)

  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Kno63 schrieb:
    Mit Optimus sollte das Problem imho nichts zu tun haben; entweder rendert die Igpu  oder die Nvidia, die beeinflussen sich nicht gegenseitig.
    Gruß
    Das ganze mit Optimus war nur eine Vermutung, weil ich es mir nicht anders erklären konnte. Eine Differenz von 60 FPS zwischen der IGPU und der 3080 macht bei einem Spiel mit einer Grafik wie Minecraft keinen Sinn, vor allem wenn man bedenkt, dass ich in den meisten Spielen high/ ultra Settings auf 100+ FPS stemmen kann. 
    Die Vermutung mit Optimus kann ich sogar noch halbwegs begründen: Sobald der Laptop die GPU verwendet, gibt es immer kurz einen Blackscreen (ergo, ich starte ein Spiel, kurzer Blackscreen, weil die GPU greift - kann nicht an Fullscreen liegen, da ich meistens in borderless windowed spiele & normalen windowed modus auch probiert hab, passiert genau das selbe). Bei Minecraft passiert das nicht, weswegen ich irgendwie vermute, dass es die GPU nicht einschaltet, weil es Minecraft nicht als Spiel erkennt, da es einfach nur als ein Prozess von Java ausgeführt wird. Anders kann ich es mir nicht erklären, ich weiß nur, dass ich zu 100% mehr FPS haben SOLLTE.
    Hab mir auch mal Videos von Minecraft mit einer RTX 3060TI angeschaut, die Leistungstechnisch das Äquivalent zur Laptop 3080 100w sein sollte und da kamen ganz andere Werte raus. Da wurde auf 4K +  Shader und den selben Settings schon allein 100 FPS übertroffen. Ohne irgendwelche Mods auf 1080p wurden oft genug 300 FPS überschritten und das mit 20% GPU-Nutzung. Fernab von meinen Werten und auch eher das, was ich mir von einer Laptop 3080 erhofft habe.
  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Habe jetzt mal jedes installierte Spiel durchgetestet und bin teilweise auf extrem komische Dinge gestoßen. Das wird jetzt ein Fluss an Informationen, aber vllt. versteht hier jemand meiner Ergebnisse besser als ich und kann mir sagen, warum was so ist, wie es ist. VLlt. gibt es ja irgendwelche Zusammenhänge, die ich nicht sehe.

    Vorab: Alle Tests waren auf 1080p, ohne Vsync, Lüfter auf max. Geschwindigkeit. CPU immer auf knapp 4GHz; Tests liefen immer genau eine Runde/ 15-30 Min;

    #1 - Minecraft
    Standard Settings, ohne texture pack & shader, normale Welt
    GPU-Nutzung: 50%, 60°C max.
    max. 65 Watt, avg. 60 Watt
    avg. 150 FPS 
    Anmerkung: eindeutig zu wenig FPS 

    #2 - Battlefield 4
    Ultra Settings, 150% Auflösungsskalierung, Silk Road TDM
    GPU-Nutzung: 95-100%, 60°C max.
    max. 100w, avg. 95 Watt
    avg. 180 FPS
    Anmerkung: /

    #3 - Battlefield 5
    High Settings, ohne RT & DLSS, Narvik TDM
    GPU-Nutzung: 75%-90%, 65°C max.
    max. 90w, avg. 80w
    avg. 130 FPS
    Anmerkung: Wieso ist der Unterschied von GPU usage & Watt im Vergleich zu BF4 so unterschiedlich, wenn beide Spiele auf der Frostbyte Engine laufen. Sollte doch eigentlich nicht so einen großen Unterschied spielen, oder?

    #4 - CoD MW 2019
    High Settings, ohne RT & DLSS, Shipment TDM
    GPU-Nutzung: 95-100%, 67°C max.
    max. 100w, avg. 90w
    avg. 165 FPS
    Anmerkung: /

    #6 - CoD MW 2019 Warzone Modus
    Selbe settings wie im Multiplayer-Modus, Solo BR
    GPU-Nutzung: 90%, 65°C max. 
    max. 90w, avg. 80w
    avg. 110 FPS
    Anmerkung: Ab und zu ist die GPU-Nutzung auf 55-60% gefallen, dadurch auch die FPS auf unter 80. Warum? Und wieso nutzt das Spiel weniger von meiner GPU/ warum ist die Leistungsaufnahme der GPU niedriger als beim Multiplayer-Modus, wenn es doch das selbe Spiel ist.

    #7 - CoD Black Ops 3
    max. Settings, Nuketown TDM
    GPU-Nutzung: 50-100%, 60°C
    max. 80w, avg. 70w
    avg. 80-150 FPS
    Anmerkung: Alle 10 Sekunden ist meine GPU-Nutzung von 95-100% auf 50% gefallen, was zu einem extremen Ruckler und Frame-Drop auf knapp 80 FPS geführt hat. Woran könnte das liegen?

    #8 - PUBG 
    Ultra-High, Taego, First Person 
    GPU-Nutzung: 90%, 75°C max. 
    max. 100w, avg. 90w
    avg. 120 FPS
    Anmerkung: Teilweise ist die GPU sogar komischerweise auf 105w gesprungen 

    #9 - Escape from Tarkov
    High/Ultra Settings, Woods
    GPU-Nutzung: 80-100%, 78°C max.
    max. 95w, avg. 90w
    avg. 80-90 FPS, je nach Standort auf der Karte
    Anmerkung: nur 60% GPU-Nutzung mit SSAO aus, 80-100% mit SSAO auf hoch

    #10 - GTA 5
    High/Ultra Settings, GTA Online, 20 Spieler in der Sitzung
    GPU-Nutzung: 60-100%, 70°C max. 
    max. 100w, avg. 60w
    avg. 90 FPS
    Anmerkung: Im Apartment war die GPU-Nutzung und Leistungsaufnahme bei 95-100% & 100w, sobald ich das Apartment verlassen habe, ist die Nutzung und Leistungsaufnahme auf 60-70% & 60w gesunken. Sollte das nicht eigentlich genau anders rum sein, im Apartment muss ja deutlich weniger gerendert werden, als außerhalb.
    Außerdem: im Menü ist die Nutzung auf 10% und die Leistungsaufnahme auf 25w gesunken, was auch die 10 FPS erklärt, die ich im Hauptpost erwähnt habe. Kann aber nichts finden, woran das genau liegt.

    Finde die Werte im allgemeinen ganz komisch. In manchen Spielen wird die GPU komplett genutzt, manche andere Spiele nutzen diese nur halb. Klar gibt es Spiele, die eher CPU, statt GPU-lastig sind, aber das erklärt für mich nicht, warum Spiele, die auf der selben Engine laufen, so unterschiedliche Verhalten aufweisen (siehe Battlefield 4 & 5 oder CoD MW & Warzone). Wie gesagt, ich finde keine Gründe für das verhalten, hab die Settings schon so angepasst, dass die GPU bisschen mehr beansprucht wird, aber von der 100% GPU-Nutzung bin ich teilweise noch extrem weit entfernt.
  • VincentPohlmann
    VincentPohlmann Member Beiträge: 28 Enthusiast WiFi Icon
    Moin
    Die GPU Leistung scheint eigentlich normal zu sein (80-100% Auslastung sind Perfekt). Es wäre gut zu erfahren wie deine CPU Auslastung und Temperatur  sich bei den spielen verhält. 

    Teste sonst auch nochmal mit Core Temp und Prime95
    https://www.heise.de/download/product/prime95-36233
    https://www.heise.de/download/product/core-temp-49834

  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Teste sonst auch nochmal mit Core Temp und Prime95
    Die CPU Auslastung/ Temperaturen teste ich später, wenn ich mehr Zeit hab als gerade.

    Hab mal Prime95 durchlaufen lassen, Anfangs normal auf 4GHz mit den angegebenen 54w.

    Als die CPU 90°C erreicht hat, hat sie begonnen zu thermal throttlen und ist mit allen Kernen auf ~3-3,1GHz (teilweise sogar auf 2,7GHz) runter und blieb dort auch, selbst als die Temperaturen auf 70°C gesunken sind. Die CPU ist dann auch nicht mehr auf ihre 54w gestiegen, sondern hatte bei 35w scheinbar ne harte Grenze. Scheint zu thermal throttlen, damit aber dann nicht mehr aufzuhören.


    Was ich komisch fand, direkt als ich den Stresstest gestoppt hab, sind mir fast alle Kerne auf 4,4 GHz gesprungen o.O 
  • SandroStubner
    SandroStubner Member Beiträge: 8

    Tinkerer

    Die GPU Leistung scheint eigentlich normal zu sein (80-100% Auslastung sind Perfekt). Es wäre gut zu erfahren wie deine CPU Auslastung und Temperatur  sich bei den spielen verhält. 
    Also, habs mal durchgetestet

    #1 - Minecraft
    10-20% CPU-Auslastung, 3,2GHz, 8-15w, 60-70°C

    #2 - Battlefield 4
    30% CPU-Auslastung, 3,9GHz, 25-30w, 80-90°C

    #3 - Battlefield 5
    60-70% CPU-Auslastung, 3,7GHz, 25-30w, 80-90°C

    #4 - CoD MW 2019
    50% CPU-Auslastung, 3,8GHz, 25-30w, 75-85°C

    #5 - CoD Warzone
    70% CPU-Auslastung, 3,8GHz, 30-35w, 80-90°C

    #6 - CoD Black Ops 3
    30-100% CPU-Auslastung, 3,5GHz, 15-30w, 70-80°C
    Kann mir die Spikes auf 100% Auslastung nicht erklären, die passieren immer dann zeitgleich, wenn die GPU-Auslastung/ Watt sinkt... komisch

    #7 - Escape from Tarkov
    30-50% CPU-Auslastung, 4GHz, 25-35w, 70-85°C

    #8 - GTA 5
    20-35% CPU-Auslastung, 3,8GHz, ~20w, 75-85°C

    CPU ist eigentlich nie so wirklich ausgelastet, die Frequenzen scheinen normal zu sein & die Temperaturen... ja naja, geht noch so halb, ab 90°C merkt man halt trotzdem, dass die CPU anfängt zu thermal throttlen. Finde das bisschen zu vorsichtig, da der Ryzen 7 5800H erst ab 105°C seine Maximaltemperatur hat. Mein alter i7-6700HQ hatte ne max. Temperatur von 100°C, ab 97°C hat das thermal throttlen angefangen. Ist jetzt nicht optimal, aber nen Spielraum von 15°C ist jetzt auch bisschen zu vorsichtig gewählt. Aber darum geht es ja nicht, kann jedenfalls aus den CPU-Werten weniger komische Sachen rausziehen, als an den GPU-Werten