Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Welchen Heatsink kannst du denn empfehlen? Gibts die einigermaßen günstig oder kosten die dann gleich ein Drittel der ganzen SSD?
     
  2. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Auf der Patriot Viper ist der bequiet! MC1 drauf, kostete mich unter 10€ bei Mindfactory, bei Amazon war / ist er teurer. Eine Nummer größer wäre der MC1 Pro, der hat Heatpipes drin. Und noch eine Nummer größer und vermutlich leistungsfähiger ist der Sabrent M02, den hab ich mir mal vorgemerkt für den Zeitpunkt wo ich wieder an den M.2 Slot zwischen CPU und Grafikkarte rankomme. :D

    Mal gucken, vielleicht mache ich Ende April einen kleinen "Frühjahrsputz" im PC und tausche dabei die WLP aus oder so...


    PS: Dein Post ist auch deswegen witzig, weil je nach Hersteller der Preisunterschied zwischen deren "nackten" M.2 versus mit Kühler direkt ab Werk gern mal 30...40€ betragen kann, wenn vergleichbare im Handel für unter 10€ zu haben sind. Fand das immer enorm frech. ^^


    PPS: Hier, ich empfehle dir wärmstens dieses Modell, damit haste keine Probleme mehr!!!

    https://www.amazon.de/JIUSHARK-M-2-Three-Heatsink-Aluminium-Cooling/dp/B0C2YHGSJJ

    :ugly:
     
    Zuletzt bearbeitet: 14. April 2024
  3. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Die berichteten Temperatursenkungen klingen schon ziemlich überzeugend und wie etwas, das man sich für 10€ mal gönnen sollte. Wenn einmal eine SSD deswegen länger lebt, hat man die Kosten schon zigfach wieder drin.
     
  4. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ich kann bei der Patriot Viper aber nichts zur Temperaturabsenkung durch den Kühler sagen, ich betrieb sie von Anfang an mit dem Kühler. Und hab's dann beim Zocken beobachtet, war total unauffällig.

    Idle: Controller 32°C / Speicherchips 40°C
    Zoggn: Controller 44°C / Speicherchips 44°C

    Da hatte ich etwa 45min HFW gespielt. Im geschlossenen Gehäuse bei 25°C ambient.
     
  5. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.685
    Ort:
    D
    Ja, vermutlich. Ich sehe auch immer das Positive. Selbst beim Preis.

    Demnächst wird der alte Sparkassen-Werbeklassiker nämlich ersetzt, Haus und Boot können sich ja zunehmend weniger leisten:

    Meine Steambibliothek, meine Wasserkühlung, meine GeForce RTX.

    Früher hätte es noch Nerdschellen und Gelächter gegeben, wenn jemand mit seinem Pentium-PC geprahlt hätte. Heute ist eine Grafikkarte das neue Statussymbol des kleinen Mannes. [​IMG]
     
  6. xGERxSpiderx Qualitätskontrolle

    xGERxSpiderx
    Registriert seit:
    29. Februar 2004
    Beiträge:
    4.513
    Ort:
    New Hamshire
    Hab heute auch mal geschaut, meine m.2 hat 38-39°, hab mal einen Benchmark laufen lassen CPU und GPU auf max. da komme ich auch nur auf 42°.
     
  7. sgt__luk3 Grantler v3.0

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.261
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    hat jemand ne Empfehlung für ein 2,5 Zoll SSD Gehäuse was mit nur einem USB Kabel vernünftig funktioniert?
     
  8. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    https://www.amazon.de/dp/B07D2BHVBD/

    Ich nutze den identisch aussehenden Vorgänger seit Jahren mit einer Samsung 860 QVO SSD.
     
    sgt__luk3 gefällt das.
  9. Lemu54 Notebook-Kaufberatungsking

    Lemu54
    Registriert seit:
    2. Februar 2011
    Beiträge:
    3.505
    Ort:
    Internet, duh.
    Mein RIG:
    CPU:
    Ryzen 7 5700X @stock mit Alpenföhn Ben Nevis
    Grafikkarte:
    PowerColor RX Vega 56 Red Dragon @UV
    Motherboard:
    ASUS Prime B350M-K
    RAM:
    Crucial Ballistix Elite 2x8GB DDR4-2666 @lightOC
    Laufwerke:
    WD Black M.2 500 GB
    Crucial MX500 2 TB
    ASUS BC-12D2HT
    Gehäuse:
    BitFenix Prodigy M schwarz
    Maus und Tastatur:
    Sharkoon Shark Force schwarz
    Logitech G910 Orion Spark
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    LG 27UD58P-B
  10. casadechrisso

    casadechrisso
    Registriert seit:
    6. Oktober 2011
    Beiträge:
    1.673
    Ort:
    Hamburg
    Mein RIG:
    CPU:
    R 7600
    Grafikkarte:
    RX6800
    Motherboard:
    B650
    RAM:
    32
    Laufwerke:
    Zu viele
    Soundkarte:
    What?
    Gehäuse:
    vorhanden
    Maus und Tastatur:
    auch vorhanden
    Betriebssystem:
    Win11 + MacOs
    Monitor:
    2 sogar!
    Ich teile es schonmal schnell um @Lurtz zu ärgern die Arbeit abzunehmen, natürlich mit dem Hinweis daß FSR nixt taugt und AMD sich mehr Mühe geben soll (so viel Fazit kann ich schon ziehen bevor ich's geguckt hab). Viel Spaß beim Picksel piepen. :D

    https://www.youtube.com/watch?v=PneArHayDv4

    Edit: 6:47 - Er hat TATSÄCHLICH Pixel gezählt. :eek:
     
    Zuletzt bearbeitet: 16. April 2024
  11. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Das Zählen hätte er sich bei FSR sparen können, die Probleme sind ja seit Release die selben.

    Leider ist FSR 3.1 noch nicht verfügbar wie zb Nixxes verlauten hat lassen. Und FSR Frame Generation ist seit Wochen in Avatar und TLOU komplett kaputt weil die generierten Frames zwar berechnet, aber nicht angezeigt werden :ugly:
    Schon lustig wenn generische Mods besser als native Implementationen laufen.
     
  12. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ich werde das Preset E mal in Horizon Forbidden West probieren, jetzt wo es Digial Foundry hervorgehoben haben.

    Kleine Bitte: Ich habe es über DLSS Tweaks eingestellt und dann das HUD mal erzwungen, da zeigt er mit das E aber scheinbar als D an. Kann das jemand bestätigen? Liegt vermutlich daran, dass es so neu ist, will nur sicher gehen, dass das nicht nur bei mir so angezeigt wird. Danke. ^^
     
  13. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Nein dann funktioniert es nicht. Da muss E stehen. Mit DLSS Tweaks funktioniert es aktuell nur wenn man es global erzwingt, sonst einfach nVidia Inspector nehmen, damit kann man sich DLSS Tweaks im Grunde komplett sparen.
     
  14. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Geil, du erzählst mir quasi, dass heute Abend beim Zocken ganz hart der Plcebo-Effekt zugeschlagen hat. :runter::ugly::hoch:

    Nvidia Inspector habe ich ja drauf. Mal probieren. Aber kann ich es mir über den dann auch per ingame-Anzeige bestätigen lassen? :hmm:


    /finaler edit für den Abend: Hab's hinbekommen, mit DLSS Tweaks. :banana: Hatte echt noch die alte dll im override, oops. :ugly:

    Und dann funzt es übrigens auch ohne den global override, sondern einfach nur über die normalen Profile.

    Mit dem Inspector habe ich zwar auch eine custom xml finden können, die die Optionen hinzufügt, aber es gibt dort keine Option diese Anzeige im Spiel zu erzeugen, womit man dann prüfen kann, welches Preset aktiv ist. Oder habe ich etwas übersehen?
     
    Zuletzt bearbeitet: 17. April 2024
  15. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Daniel Owen hat mal versucht die Unterschiede zwischen einer RTX 4060 und 4070 darzustellen - also was opfert man auf der 4060 an Settings und Bilqualität, um ähnliche Performance zu erreichen:
    https://www.youtube.com/watch?v=2uSa__IA9eg

    Sicher kein schlechter Ansatz, wenn auch allein aus Kapazitätsgründen nicht für generelle Reviews abzubilden.
     
    nofxman und xGERxSpiderx gefällt das.
  16. sgt__luk3 Grantler v3.0

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.261
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Danke nochmal. Hab das Teil da und meine alte Tooshiba TR150 mit 960GB darin verbaut. Wurde erst nicht erkannt weil es Ext4 formatiert war. Da war noch meine alte Linux installation drauf. Unter Linux also nochmals als exFat formatiert und jetzt läufts.
     
    GODzilla gefällt das.
  17. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.847
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    So, jetzt muss ich mal sehen, mit was ich den neuen Monitor ausfahre. Hatte ja mal ein NG+ von Alan Wake 2 überlegt. :legal2:
     
  18. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Frühjahrsputz vom PC beendet (das erste Mal entstaubt nach dem Zusammenbau im Februar 2023) und dabei gleich mal die Wärmeleitpaste ersetzt. Die hab ich damals zu dünn aufgetragen, weil ich mich an das hielt was NOCTUA in der gedruckten Anleitung zur eigenen Wärmeleitpaste zeigt: Einen Punkt in die Mitte, mehr nicht.

    Guckt man hingegen jetzt in eine der online verfügbaren Anleitungen für CPU-Kühler oder Wärmeleitpaste, so empfehlen sie nun einen großen Punkt in die Mitte und 4 in die Ecken. Danke für nichts, NOCTUA! :ugly:

    Habe mich aber an die allgemeine Empfehlung gehalten: Punkt in die Mitte, dann per Spatel verteilen. :yes:

    Und während sich generell an den idle- und Lasttemperaturen nicht wirklich was getan hat, sehe ich im Desktop- als auch Spielebetrieb eine deutlich homogenere Wärmeverlaufskurve; weniger spikes.


    Fail: Ich wollte, wo einmal der CPU-Kühler runter ist, gleich noch die M.2 dort mit einem richtigen Kühler versehen. Dummerweise ist die untere Platte des Sabrent Kühlers mit Heatpipe zu voluminös, sie steht bis an die Aussparung für die Arretierung an und da muss aber Platz sein für das System mit dem Hebel das ASUS benutzt. :KO:

    Den kann ich also eher nicht empfehlen. Geht zurück.

    Nun ist wieder der Mainboard-Kühler drauf. Beim nächsten Mal. Vielleicht. :ugly:
     
    manfred4281 gefällt das.
  19. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Empfehlung ist doch Punkt in die Mitte und nichts selbst verteilen. Bzw dass es egal ist.
     
  20. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Es gibt so einige Empfehlungen. :D Das ist jetzt Kryonaut, die legen einen Spachtel bei und bitten um spreading. :D Noctua, guck halt nach, empfiehlt jetzt die 1 + 4 Punkte Variante für AM5.

    Und der Punkt ist, dass ich halt definitiv zu wenig genommen habe damals. Sah ich als der Kühler runter war, da war auch in der Mitte, wo der Punkt war, nichts wirklich bedeckt.

    Damit es keine Schweinerei wird habe ich einen Wärmeleitpastenschutz verwendet. Der hätte zwar auch drauf bleiben können, weil aus Silikon, aber ich nahm ihn wieder ab. Die WLP ist nicht leitfähig, wenn nach dem Aufsetzen des Kühlers was rausgedrückt wird ist das egal und ich wollte die Stellen ohne heatspreader halt nicht völlig dicht machen. AMD hat sich ja vielleicht was dabei gedacht. ^^

    PS: Hier, das zeigt es ganz gut, wie man es bei AM5 mit der Verteilung machen kann:

    https://www.youtube.com/shorts/YUof-nbwemQ
     
  21. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Du sprachst von einer allgemeinen Empfehlung, und da war der Stand der Hardwarereviewer immer, dass es egal ist bzw. man einfach einen Punkt machen soll, damits keine Sauerei gibt. Wenn man zu wenig nimmt, wirds natürlich schwierig an den Rändern, klar.
     
  22. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Meine laienhafte Meinung dazu: AMD musste ja für AM5 den heatspreder dicker machen, damit die Kompatibilität zu AM4 Kühlern gewahrt bleibt. Finde ich immer noch eine echt dämliche Entscheidung, weil allein das halt Temperatur drauf packt.

    Naja und dann noch diese Form. Deswegen möchte ich halt jedes Stückchen an Fläche für die Wärmeübertragung ausnutzen und deswegen verteile ich es.

    Die Tatsache, dass NOCTUA seine Empfehlung geändert hat, spricht ja auch dafür. Hier:

    [​IMG]
    Foto der Anleitung meines im Februar 2023 gekauften Monage-Kits
    [​IMG]
    Screenshot aus der aktuellen Anleitung dieses Montage-Kits


    PS: Oh shit, du hast bald eine massive counter-Feier! :eek:
     
    Zuletzt bearbeitet: 19. April 2024
    Zitron3 und manfred4281 gefällt das.
  23. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.328
    huh, lange nich hier gewesen...aber einfach auch lange nich am pc geschraubt + viele releases sind eher langweilig...

    https://www.youtube.com/watch?v=b73xG1HlFhY&ab_channel=GamersNexus

    grad das gesehen... EK scheint es mies zu gehen...

    Eher doof in anbetracht dessen, dass auch die deutschen Wakü Hersteller mittlerweile einfach quasi nichtsmehr supporten (Watercool n paar Karten, aber extrem spät, Aquacomputer garnix aktuelles...)...

    Ende des Jahres (zu den rtx 50xx) steht eigentlich endlich mal n größerer rebuild an (also eigentlich alles bis auf case/festplatten, vlt PSU), da hätte ich schon gern noch auswahl gehabt, statt der "billigen" chinablöcke... EK ist zwar auch komplett überteuert, aber supported wenigstens viele karten und ist damit recht schnell... zu luft kann ich jedenfalls nach dann 3 jahren absoluter stille nicht wieder zurück...
     
  24. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    https://twitter.com/opinali/status/1781336894787240318

    Davon ist leider auszugehen. Nicht mal unbedingt nur bei High-end CPUs.
     
  25. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.210
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Und wer ist das gleich?
     
  26. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Ist das relevant? Ich halte die These für ziemlich wahrscheinlich, wenn man sieht wie die ganze Branche gerade auf AI steilgeht.
     
  27. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.685
    Ort:
    D
    Wenn bei GPUs die Preise runtergingen, wenn sie für Gaming spezialisiert würden...

    Aber das ist ein Meme. Als würden GPU-Hersteller jemals wieder Preisniveaus kürzen. :ugly: Anders als bei CPUs gibts da seit spätestens 2016 nur eine Richtung -- und nicht mal näherungsweise Preisstabilität.

    "The more you buy, the more you save!" :teach: Möchten SIe mehr wissen?

    [​IMG]
     
  28. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.210
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Wenns um Twitter geht schon, IMO.

    Aber davon mal ab reagieren die CPU Hersteller doch vor allem auf die Vorgaben Microsofts. Wer seine CPUs in Zukunft im OEM Segment verkaufen will, kommt ohne Windows AI Zertifizierung vermutlich nicht mehr zum Zug.
     
  29. Jokin

    Jokin
    Registriert seit:
    19. August 2015
    Beiträge:
    853
    Also wundern würde es mich nicht. Weil halt KI, aber wozu auf dem CPU?
    Die GPU ist um längen besser für sämtliches KI Zeug also machen da die entsprechenden Erweiterungen auch Sinn.

    Wenn man was mit KI machen will nimmt man doch nix von der CPU.
     
  30. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Da es mir nicht um den Wahrheitsgehalt des Prognostizierenden ging, sondern um die These an sich... :nixblick:
    Naja, viele PCs haben halt gar keine GPU sondern nur eine CPU (mit GPU-Anteil). Er erwähnt in dem Thread ja auch, dass es weit sinnvoller wäre das Feld den GPUs zu überlassen.
     
  31. casadechrisso

    casadechrisso
    Registriert seit:
    6. Oktober 2011
    Beiträge:
    1.673
    Ort:
    Hamburg
    Mein RIG:
    CPU:
    R 7600
    Grafikkarte:
    RX6800
    Motherboard:
    B650
    RAM:
    32
    Laufwerke:
    Zu viele
    Soundkarte:
    What?
    Gehäuse:
    vorhanden
    Maus und Tastatur:
    auch vorhanden
    Betriebssystem:
    Win11 + MacOs
    Monitor:
    2 sogar!
    So, jetzt macht mal Platz hier, Ihr Grafikkartenstecker, Kabelverleger und SSD Anschliesser - aka, simples Volk; Ich schreite heran um meine Krone zu empfangen, den Forumsehrenorden für besondere Bastelerrungenschaften - gegen mich ist der Bauer tatsächlich nur ein Bauer, denn ich habe:

    Die Festplatte meines kaputten iPod Classic nach 12 Jahren Schublade durch SD + Adapter ersetzt. :aua2:

    Ich habe dafür nur 2 Tage gebraucht, nur 10kg abgenommen, schlohweisses Haar und einen Augenlid-Tic entwickelt, Tourette gab's noch obendrauf. Mein Nervenkostüm hab ich auf der Hälfte ausgeniest und das Klo runtergespült, aber heute machte es entgültig "Klack!" und ich hatte die gestern noch durch Aufbiegen und von Zangen völlig verbeulte Rückenschale wieder dran und die verdammte SD -Karte wird nach ca. 250 Versuchen (ZIF-Kabel raus und rein, SD 128x neuformatiert, Batteriekabel mit Lupe und Pinzette ein/ausklemmen) endlich erkannt nachdem ich, völlig desillusioniert und am Boden, als allerletzten Versuch ausprobierte ein Stück Tesa zu benutzen um das Flachbandkabel einen Nanometer dicker zu machen, wodurch die Verbindung ENDLICH stand und mir keine Fehlermeldungen mehr um die Ohren flogen.
    So fertig war ich noch nie, diverse Laptopreparaturen selbst an Macbook Air etc. sind NIX dagegen, ich werd jetzt zur Entspannung Nukleartechniker.
    TL;DR: Ich will ein Lob. :(
     
    Lemu54, Lurtz und GODzilla gefällt das.
  32. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.302
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Das hast du gut gemacht! :yes:
     
    nofxman und casadechrisso gefällt das.
  33. casadechrisso

    casadechrisso
    Registriert seit:
    6. Oktober 2011
    Beiträge:
    1.673
    Ort:
    Hamburg
    Mein RIG:
    CPU:
    R 7600
    Grafikkarte:
    RX6800
    Motherboard:
    B650
    RAM:
    32
    Laufwerke:
    Zu viele
    Soundkarte:
    What?
    Gehäuse:
    vorhanden
    Maus und Tastatur:
    auch vorhanden
    Betriebssystem:
    Win11 + MacOs
    Monitor:
    2 sogar!
    Oh ja!

    Hier mal so für den Überblick wenn es, *hust*, problemlos läuft und der unberechenbare Faktor SD-Adapter entfällt: https://de.ifixit.com/Anleitung/iPod+Classic+Festplattenwechsel/564
    Schritt 1-17 nur für's Öffnen der Rückwand...
     
    Die-Fette-Elke gefällt das.
  34. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    3.090
    Mein RIG:
    CPU:
    R7 7700X @65W TDP & -30 Curve optimization
    Grafikkarte:
    PALIT RTX 4070
    Motherboard:
    ASrock X670E PG Lightning
    RAM:
    32GB DDR5 6000 Mhz G.Skill
    Laufwerke:
    2 TB Cucial P3 PCIE Gen4 NVME
    2x 1TB Crucial P3 PCIE Gen3 NVME
    1TB Crucial SATA SSD
    4GB HDD
    Soundkarte:
    Ahahahahahaha ahahahahahahaha. Ne.
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Glorious GMMK 1 + Steelseries Prismcaps
    + Logitech MX Vertical
    Betriebssystem:
    Win 11 (leider! HMPF...)
    Monitor:
    Acer Predator 144Hz WQHD Gsync + LG 4K Freesync/HDR
    So ein ähnliches Video hatte der ehemalige Gamestar zugehörige Candyland Kanal auch mal. Damals GTX 660 - 1060.
    Wie müsste man die settings regeln damit mindestens 60 FPS erreicht werden. Bzw wie gut sieht das Spiel dann jeweils aus.
    Sehr interessant und führt einem vor für was man ggf. Hunderte Euro Aufpreis zahlt.

    https://youtu.be/WvO1tj4gZvs?si=Ddi7LWsbF6e-H-_V
     
  35. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.628
    Für Gamer ist das eigentlich auch der logischere Ansatz, dass man den Spieß umdreht und sagt "Was muss ich einstellen/runterdrehen, damit es 60fps+ erzielt oder 100/120/144?" Das ist wie so oft eine Frage des Aufwands, aber an sich schon logischer. Auf der anderen Seite würde man einen Teil der Performanceeinbußen herstellerseitig mit mehr VRAM lösen können. Das ist und bleibt ein großes Problem, wird auch im Video angesprochen. Je nachdem wie schnell die Entwicklung bei iGPUs voranschreitet, kann es sogar noch sein, dass innerhalb der nächsten 4-5 Jahre eine leistungsgleiche iGPU 8GB oder mehr ansprechen kann. Deswegen haben diese aktuellen 8GB GPUs angesichts der Preise für mich keine Daseinsberechtigung. Preise runter oder VRAM rauf, alles andere ist Mist.
     
  36. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.685
    Ort:
    D
    Dem iGPU-Hype glaube ich nicht mehr. Jedenfalls nicht so, dass er für Gaming respektive dieses Forum mal interessant wird. Nicht in der aktuellen Form. Gaming mag viele Facetten haben. Aber ich denke, wir sprechen hier noch immer über Tauglichkeit für aktuelle Titel. Und zwar ALLE aktuellen Titel -- nicht zwingend immer in hohen Details. Aber spielbar doch. Und da siehts weiter mau aus.

    Ryzen 2400G matchte vor fünf Jahren eine ~R7 260-265.
    Ryzen 8700G battelt sich heute im Best Case mit einer RTX 1650.

    Anderes Jahr. Gleicher Abstand zu damals Jahre alten Einstiegs-GPUs.

    Demnächst kommt ja noch Strix Halo. Das geht zwar in die richtige Richtung und wird wohl auch eine entsprechende Chipgröße haben, wenn ich das richtig gelesen habe. Aber das wird so Premium, dass sie für ein Zielpublikum von aktuellen Einstiegs-GPUs so relevant wird wie die Champions League für Darmstadt 98. Und alles andere hat der Markt sowieso abgedeckt. Da die kleinsten Gaming-Modelle auch bei AMD seit spätestens RDNA2 zum Vorzugspreis einer kleinen XBox auf den Markt kommen, skaliert der Rest entsprechend.

    Andererseits würden es AMDs (Konsolen-)Partner wohl sowieso gar nicht gerne sehen, wenn die mit PC-Gaming-APUs auch nur im Ansatz den Konsolen-APUs Konkurrenz machen würden. Größter AMD-KUnde: Sony.
     
    Zuletzt bearbeitet: 22. April 2024
  37. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.628
    Die Möglichkeiten sind allerdings vorhanden. Denn eine 780M hat nur 12CUs, wie die 680M, aber auf geringerer Fläche bzw. Die Size. D.h. eigentlich würde man da bereits problemlos 16CUs oder so auf etwa dieselbe Fläche bringen können. Haben sie eben nicht gemacht. Oder vielleicht ist genug Platz für 20, 30 CUs - keine Ahnung. Jedenfalls sehe ich darin kein technisches Hindernis, zumal man ironischerweise eine CPU bereits ohne Anpassungen mit mehr Strom versorgen kann als einen PCIe Slot. Also könnte man sich eine bis zu 100W iGPU schon vorstellen, wenn die ungefähr die Leistung einer RX 7600 oder RTX 4060 bringt. Das ist natürlich schwierig, wenn man zeitgleich überteuerte 8GB Grafikkarten verkaufen kann und will... Eine Abwägungssache.^^

    Edit: Ah, ich sehe gerade dass das mehr oder weniger Strix Halo entspricht. Ja gut, eben... Zeigt ja, dass es geht. :nixblick:(zumindest wenn es stimmt, ist ein Gerücht)

    Sony hat in dem Zusammenhang wahrscheinlich nicht viel zu sagen. Zumal Konsolenhersteller ähnlich wie OEMs generell darauf angewiesen sind, dass es technische Fortschritte bei der AMD Hardware gibt, weil sie sonst in Erwägung ziehen müssen, eine nvidia GPU zu verbauen, die wahrscheinlich doch ein bisschen teurer wäre als das was AMD anbieten kann. Aber wenn es da in Zukunft immer noch an RT Leistung mangelt, gewinnt der Konsolenhersteller, der eventuell doch bzw. zuerst zu nvidia geht und das ist eine Sache, die AMD meines Erachtens nicht unterschätzen sollte. Denn nvidia sagt bestimmt nicht nein, wenn die irgendwo nochmal eine Milliarde $ zusätzlich einnehmen können. Solche Großaufträge sind immer spannender, als Produkte für private Endkunden schmackhaft zu machen.
     
    Zuletzt bearbeitet: 22. April 2024
    Svenc gefällt das.
  38. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.685
    Ort:
    D
    Apropos: In letzter Zeit erschienen immer wieder Artikel, die GTX 1080ti sei die beste GPU aller Zeiten gewesen.

    Was folgt: Etliche Kommentare von Nutzern, die sie immer noch benutzen. Ich muss da ja immer schmunzeln. Denn dass die 2024 noch benutzt wird, von einer ehemaligen Highend-Zielgruppe, erzählt bereits sowohl die Geschichte der 1080ti -- als auch des Marktes generell. Die GTX 1080ti profitierte insbesondere vom Timing. Und: Wären die Preise danach nicht so durch die Decke gegangen, würde niemand mehr sie benutzen. Ganz besonders nicht ihre anspruchsvolle (Highend-)Käuferschicht. Dass sie das in Teilen immer noch tut, sagt alles, was man wissen muss.


    - Pascal kam generell als letzte Nvidia-Reihe mit einigermaßen vernünftigen Preisen auf den Markt.
    - dies zur Hochzeit der PS4 -- aber mit einem massiven Performancevorsprung vor dieser
    - Folge: Über ein halbes Jahrzehnt garantierte Mindesthaltbarkeit. Konsolen sind die Leadplattformen, die nächste Generation um PS5&Co. erschien erst Ende 2020
    - Das macht sich immer mehr bemerkbar. Spätestens Alan Wake & Co. sind auch auf der 1080ti kein Zuckerschlecken mehr. Die GTX 1060 schon desöfteren unterhalb der Mindestanforderungen



    Beste Nvidia-Karten aller Zeiten:

    GeForce 4ti 4200
    GeForce 8800GT

    Jeweils zweimal Performance nahe des High-Ends -- zum Bruchteil des Preises. Im Falle der 8800GT gar für die Hälfte des Preises. Konkret: Für weniger Geld, als aktuell für eine absolute Einstiegskarte wie die RX 7600 aufgerufen wird. Wird nie wieder passieren. Tech-Kanäle, die die Inflation 1:1 mit damaligen Preisen verrechnen, machen übrigens die PR-Arbeit der Hersteller -- für lau. Einen aktuellen Ryzen bekommt man immer noch zum gleichen Preis wie einen Athlon 64 vor zwanzig Jahren. Und nicht nur den. Das nennt sich Fortschritt -- auch in der Fertigung.
     
  39. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.972
    Komische Highend-Käufer, die schon seit sieben Jahren auf einer GPU sitzen, die längst überholt wurde - sowohl leistungs- als auch featuretechnisch. Eine 1080 Ti hat ~66% auf eine 980 Ti draufgelegt und hatte eine UVP von 819€. Allerdings satte 5 GB VRAM mehr.

    Schon eine 3080 hat vor fast vier Jahren ~80% Leistung für 699€ draufgelegt. Ja, mit verkleinertem VRAM, was natürlich absurd ist - aber im Gegensatz zur 3070 haben sich die 10 GB der 3080 ja halbwegs gut gehalten. Jedenfalls nichts, was einen Highend-Käufer wirklich abhalten würde, zumal die 3080 DLSS hat.

    Dass die Preise aufgrund der Marktlage teils extrem viel höher waren, geschenkt, unmöglich war es dennoch nicht eine zum UVP zu ergattern, gerade zu Beginn nicht.
     
  40. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.685
    Ort:
    D
    Bei der GS sind zu 1080ti-Artikeln auch noch Kommentare: "LEGENDE! Nutze ich heute noch!" :D Aber für die 800 Euro gibts halt schon lange kein High End mehr. Aber es gibt für 100-150 Euro ja auch schon lange keinen vernünftigen Einstieg mehr. :D
     
Top