SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Café d`Image (https://www.sonyuserforum.de/forum/forumdisplay.php?f=94)
-   -   AMD RYZEN oder Intel i7 7700K (https://www.sonyuserforum.de/forum/showthread.php?t=177565)

tempus fugit 05.03.2017 23:58

Zitat:

Zitat von wiseguy (Beitrag 1898736)
Zur Lightroom-Performance gibts auch andere Benchmarks:
http://www.pcgameshardware.de/Ryzen-...eview-1222033/

Da schneidet der AMD hervorragend ab. Wem sollten wir nun mehr glauben?

Haja, nicht signifikant schneller, obwohl doppelt so viele Kernevorhanden sind, also eigentlich die Arbeit in fast der halben Zeit gelöst hätte werden können.
Gut, der RYZN clockte mit 3,6 - 4,2 GHz, aber der Intel halt mit 4,2-4,5 GHz.
Aber der Frequenzunterschied macht die Kühe hier nicht fett!

108sek beim RYZEN vs 118sek beim 7700K

Ellersiek 06.03.2017 09:42

Zitat:

Zitat von tempus fugit (Beitrag 1898755)
Haja, nicht signifikant schneller, obwohl doppelt so viele Kernevorhanden sind, also eigentlich die Arbeit in fast der halben Zeit gelöst hätte werden können.
Gut, der RYZN clockte mit 3,6 - 4,2 GHz, aber der Intel halt mit 4,2-4,5 GHz.
Aber der Frequenzunterschied macht die Kühe hier nicht fett!

108sek beim RYZEN vs 118sek beim 7700K

Die Anzahl der Kerne aber irgendwann auch nicht.
Das Lesen (xl) und Schreiben (xs) einer Bilddatei dauert, egal wie viele Kerne Du hast, xl + xs.
Das xl+xs ist durch bessere Hardware (SSD-NVMe) und bessere Protokolle und Systemarchitekturen sicher immer kleiner geworden, aber es bleibt ein mehr oder weniger sequentieller Prozess mit einem maximalen Durchsatz*.

Die Verarbeitungszeit y_single lässt sich durch mehr Kerne sehr wohl verkürzen (y_real = y_single/AnzahlKerne), allerdings nicht linear. Es kommt zu einem Verwaltungsaufwand für die Parallelisierung von zv und die Aufteilung nach dem Lesen (zl) und die Zusammenführung vorm Schreiben (zs) ist ebenfalls ein serieller Prozess.

Das bedeutet für die gesamte Verarbeitungszeit

v = xl + zl + zv + y_real + zs + xs

Lediglich der Zeitaufwand von y_real ist von der Anzahl der Kerne abhängig und der Zeitaufwand für zv verschlechtert zusätzlich noch die Effektivität der Parallelisierung**.

Teilt man die Verarbeitung in zwei Teile (Lesen/Schreiben/Verwaltung lsv = v - y_real und Berechnung b = y_real) so wird man wahrscheinlich (Achtung: Reine Vermutung) feststellen, dass der Anteil lsv bei einer normalen Bildbearbeitung höher ist, als b.

Der Flaschenhals ist also womöglich nicht der Prozessor sondern der Lese-, Schreib- und Verwaltungsprozess: Wenn lsv 40% einnimmt kannst Du im Idealfall (und davon ist nicht wirklich auszugehen) aus den verbleibenden 60% bei 4 Kernen 30% bei 8 Kernen machen. In Summe hättest Du 30% Geschwindigkeitszuwachs bei 100 % mehr Kernen.

Dieser Ansatz geht von einer Parallelisierung je Bild aus. Im Massenverarbeitungsprozess könnte es auch effektiver sein, den Gesamtprozess zu parallelisieren (je Kern/Thread ein Bild). Allerdings bleibt auch hier der i/o-Flaschenhals und die Software müsste einen weiteren Weg der Parallelisierung kennen und können.

Hinweis: Diese Betrachtung ist eine stark vereinfachte Darstellung. Natürlich ist die Welt etwas komplizierter und erst recht auf einem allgemeinen Rechner wie einem PC, der ja auch noch ein paar andere Aufgaben mit erledigen muss. Außerdem ist bei dieser Betrachtung die Möglichkeit der Aufgabenübernahme durch die Grafikkarte noch gar nicht berücksichtigt. Hier wäre der Vorteil eines noch höheren Parallelisierungsgrades allerdings mit den Nachteilen eines noch höheren Verwaltungsaufwandes, dem zusätzlichen Flaschenhals der Datenübergabe zur und von der Grafikkarte und einer weiteren, sehr speziellen Parallelisierungsoftware.

Mein Fazit: Alles aufeinander abstimmen und glücklich sein, nicht mehr die Hardware von 1985 nutzen zu müssen (damals gab es eine ähnliche Situation und man hat versucht, via Parallelisierung mehr Leistung zu bekommen - im MFlop-Bereich - grins).

Gruß
Ralf

* selbst wenn zwei Dateien "gleichzeitig" geschrieben werden können, wird es nahezu egal sein, ob die zwei Dateien hintereinander oder parallel liest bzw. schreibst (Achtung: nahezu und nicht von der Anzahl der Kerne abhängig!)

** und zwar um so mehr, je mehr Kerne Du einsetzt. Bestenfalls bleibt zv konstant. Davon ist jedoch nicht auszugehen, das es auch einen Verwaltungsaufwand je Kern geben wird:
zv = zv_grundsätzlicher_Aufwand + zv_Aufwand_je_Kern

wus 06.03.2017 12:11

Zitat:

Zitat von Ditmar (Beitrag 1898636)
Ich nutze den i7 5960x 3.0GHz mit 8Kernen, dieser läuft mit 3.8GHz und ohne Lüfter

8 Kerne @3Ghz ohne Lüfter - wie verhinderst Du, dass der Prozessor schmilzt???

Ditmar 06.03.2017 12:21

Zitat:

Zitat von wus (Beitrag 1898809)
8 Kerne @3Ghz ohne Lüfter - wie verhinderst Du, dass der Prozessor schmilzt???

Ein "riesiger" Kühlkörper ist hier vollkommen ausreichend.
Das ganze System ist nur mit einen "Notlüfter" ausgestattet, der so gut wie gar nicht läuft, und wenn hört man den nicht, obwohl der Rechner hoch auf einem Bürocontainer in 1 Meter Entfernung neben mir steht.
Die sonstigen Umgebungsgeräusche sind dagegen laut.

tempus fugit 06.03.2017 12:22

Zitat:

Zitat von wus (Beitrag 1898809)
8 Kerne @3Ghz ohne Lüfter - wie verhinderst Du, dass der Prozessor schmilzt???

Ich glaube, dass macht der Prozessor selber indem er runtertaktet.

Ditmar 06.03.2017 12:54

Zitat:

Zitat von tempus fugit (Beitrag 1898813)
Ich glaube, dass macht der Prozessor selber indem er runtertaktet.

Richtig, ist aber bei dem Aufbau nicht nötig, denn die Kühlung ist vollkommen ausreichend. Die CPU kommt beim normalen arbeiten nicht mal an die 45°C, selbst unter LR & PS bei Panoramen etc. ganz selten mal über 50°C, habe eine Zeitlang den HWMonitor nebenbei mitlaufen lassen, und da sieht man auch das nichts herunter getaktet wird um diese Temperatur zu halten.

wus 06.03.2017 12:56

Zitat:

Zitat von tempus fugit (Beitrag 1898813)
Ich glaube, dass macht der Prozessor selber indem er runtertaktet.

O.K., "schmelzen" war jetzt nicht wörtlich gemeint :crazy: ... aber man will ja auch nicht, dass der Prozessor nach kurzem Lauf runtertaktet, sobald er Leistung bringen muss.

Zitat:

Zitat von Schmiddi (Beitrag 1898705)
ich habe aufgehört, bei PCs an Zukunftstauglichkeit zu denken - es kam immer anders :twisted:

Das ist auch meine Erfahrung, jedenfalls über längere Zeiträume. Sinn macht das m.E. höchstens über einen Zeitraum von 1 oder allerhöchstens 2 Jahren. Und wer, außer absoluten Freaks, denkt nach 2 oder gar nur einem Jahr daran schon wieder neue Hardware anzuschaffen? Die außerdem kaum schneller ist???

Ein für optimale Performance in der Praxis sehr wichtiger Punkt wurde hier überhaupt noch nicht genannt: der Massenspeicher. Klar sollte es eine SSD sein, aber SSDs gibt's inzwischen auch sehr unterschiedliche, siehe z.B. hier. Also, nimm auf alle Fälle eine NVMe SSD - oder sogar besser 2, die zu einem Raid 0 verschaltet werden. Dazu brauchst Du dann ein Motherboard, das die dazu benötigten 2 PCIe 3.0 x4 Schnittstellen anbietet.

Je nachdem wieviel Kapazität Du brauchst wirst Du evtl. zusätzlich noch eine oder 2 Festplatten brauchen. Bei mir steckt die in einem NAS, und die Verbindung zum NAS - per Gigabit Ethernet, was um ein vielfaches langsamer ist als lokale SSDs oder auch Festplatten - stellt den schlimmsten Flaschenhals in meinem System dar.

Ich brauche das NAS noch aus anderen Gründen, wenn das bei Dir nicht der Fall ist dann spar Dir das NAS und bau alles in den Rechner ein.

Falls Du auch ein NAS hast oder demnächst brauchst, denn schau unbedingt nach einem mit schnellerer Anbindung, z.B. Thunderbolt oder 10 Gbit Ethernet. Und logischerweise muss der Rechner dann auch die entsprechende Schnittstelle haben.

Da schaut's leider ziemlich mau aus. Nur wenige Motherboards haben Thunderbolt integriert, 10 GBE muss man bisher immer mit einer (teuren) Karte nachrüsten. Es gibt zwar Gerüchte, dass dieses Jahr ein Chipsatz rauskommen soll, der 10 GBE mit integriert, aber niemend weiß es gewiss (oder jedenfalls ich nicht).

Tedda4 06.03.2017 14:10

Zitat:

Zitat von tempus fugit (Beitrag 1898491)
Ich warte mal noch ein zwei Wochen auf einen eventuellen Preisnachlass seitens Intel.
Eventuell fällt der Preis.
Dann peitsche ich den Intel auf 5GHz und gut ist.

Der RYZEN 1800X kostet jetzt noch immerhin 200€ mehr.

Für meine Experimentierorgien nutze ich dann die Graka um mit Matlab dann meine Sachen zu machen :)

Kühl-und Lüfterelemente nicht vergessen

tempus fugit 06.03.2017 14:22

Zitat:

Zitat von tempus fugit (Beitrag 1898173)
mit vielen Lüftern von Nuctua

Zitat:

Zitat von Tedda4 (Beitrag 1898844)
Kühl-und Lüfterelemente nicht vergessen

Es wird danach keinen freien Lüfteranschluss am Mainboard geben.:top:

NetrunnerAT 06.03.2017 14:31

Zitat:

Zitat von Ellersiek (Beitrag 1898788)
Die Anzahl der Kerne aber irgendwann auch nicht.
Das Lesen (xl) und Schreiben (xs) einer Bilddatei dauert, egal wie viele Kerne Du hast, xl + xs.

Wall of Text ...

Sehr idealisierte Ansicht. Es wäre schön, wenn es so laufen würde! Gerade Light Room kann nicht sequenziell im Stapel abarbeiten. Da ist das IO System aus Datenträger und Speicher nicht so limitierend wie man denkt. Eine SSD mit nur 300mb/sec VS (erfundene Werte!) einer PCI-E 4 LAN mit 2000mb/sec VS Ram Drive mit 6000mb/sec beeinflusst da weniger als man denkt. Je nach Speicherausbau Cached das OS so oder so alles und in der Rechenintensiven Phase, ist kein Datenzugriff vorhanden!

LR bearbeitet zb das Bild in einen durch, mit ein Worker. Capture One (Software aus den Mittel Format Sektor) bedient sich in vielen Punkten eine Arbeitsweise die ich von POV-Ray her kenne, nämlich eine segmentierte Bildbearbeitung! Das lässt sich besser auf mehr Core Systeme verteilen.

Daraus ergibt sich ... ein i7 bringt bei LR fast gar nix, da hier rohe Gewalt notwendig wird. Ein Single Core massiv übertaktet! Mit Prozess Affinität, Prio hoch und Turbo Mode schwer ausgereizt.

Ich neige da sogar eher dazu einen i5 in der K Version und Z-Chipsatz vorzuschlagen, um dieses Übertaktungspotenzial ausnutzen zu können. Eben weil diese Software so arbeitet wie sie es halt tut. Wie da ein AMD RYZEN mit seiner mathematischen Eigenheit da zurecht kommt, ist doch in Moment sehr spekulativ? So weit ich gehört habe, ist der ja in bestimmte Rechnungsarten verdammt schnell und in komplexeren nicht auf Intel's höhe angelangt?!? Benchmark auf PC-Games spiegelt zum Teil diese Aussage ja wieder. Interessant ist wohl ... Speicherkanäle scheinen positiv auf LR zu wirken. Also 2011-3 Chipset mit i7 und übertaktete RAM's?

Vor allem Perfmon wäre ein ideales Tool um die Flaschenhälse klar zu erkennen. Gerade Filesystem kann man gut mit ein kleinen RAM-Drive testen, bevor man sich eine SSD in RAID-0 antut.

https://www.pugetsystems.com/labs/ar...rformance-649/


Alle Zeitangaben in WEZ +2. Es ist jetzt 23:46 Uhr.