3DCenter Diskussionsforen

Bessere Monitore?

Neue Beiträge im Forum Technologie - vor 25 Minuten 59 Sekunden
Ich wollte mal ein paar Dinge einwerfen was OLED im Allgemeinen betrifft. Auch wenn ich nun harschen Gegenwind bekomme;) So sei es...

Meine Erfahrung damals mit meinem 486er Escom PC der an einem Sony CRT angestöpselt war, war Stress für meine Augen und die meines Bruders. Wieso? Nun weil der Kontrast exzellent war. Die extremen Kontraste waren alles andere als angenehm für unsere Augen. Was glaubt ihr wieso die paperartige display Darstellung der Kindles so angenehm ist zum Lesen? Der aktuelle OLED meines Bruders hat angehobenen Schwarzwert, also leicht gräulich weil er es nicht ertragen kann aber dennoch die bunten farben geniessen möchte. Verrückt, aber für ihn nunmal angenehm was ich sehr gut nachvollziehen kann. Er hat übrigens sehr viel Erfahrung (Jahrzenhnte) mit Spiegelreflex Photographie sowie Digitalfotographie. Objektive alleine von denen man sich paar 4090er kaufen könnte. Nur so am Rande.

Wenn ich surfe/lese habe ich automatisch den Kontrast immer auf "weich" eingestellt und die Helligkeit IMMER der Umgebungsbeleuchtung angepasst damit sich das Monitorbild unauffällig in mein Gesamtsichtfeld einfügt. Das empfinde ich als angenehm. Ich emuliere praktisch das Lesen von Print wennich surfe/lese.

Weiterhin, ob ihr es glaubt oder nicht ist nun eure Sache. Ich habe vor ein paar Jahren gelesen das der Samsung Boss (Oberboss von ganz Samsung oder der display abteilung, kein Plan) gesagt hatte das "diese neue Technologie" welche die Augen "kaputt" macht NICHT in sein Haus käme.

Weiterhin, ist es nicht wahr das QD OLEDs mit viel Blau arbeiten um ihre Helligkeit zu erreichen? Also genau das was man eigentlich nicht will? Und tatsächlich sind die blauen Subpixel der QDs viel grösser als rot und grün, richtig? Es gibt auf reddit genug Erfahrungsberichte wo Leute Augenschmerzen bekommen bei den QDs aber auch bei den WOLEDs welche zwar weniger Blau brauchen um Helligkeit zu erzeugen aber dennoch den extremen Kontrast bieten nach dem alle so geil sind. Thema meine Erfahrungen mit dem Sony CRT.

Nun könnte man sagen, tja ich merke davon nix. Genauseo wie einige Leute PWM schmerzfrei sind. Ich bekomme bei der OLED Switch schon nach zehn Minuten die Krise. Sobald ich auf meine LCD Switch switche im A/B Vergleich, völlige Entspannung! Die Wahrnehmung im Hirn mag zwar bei vielen Leuten nicht da sein aber der Sehapparat bekommt das sehr wohl mit und degradiert in Folge dessen.

Das hatte ich bei "normalen" CRTs sowie meinem Plasma nie! Wieso? Weil die Abklingzeit von Phosphor weit länger/weicher ist als bei den "harten"/schnellen Schaltzeiten eines OLEDs, trotz 60Hz Gefflimmer vorher genannten Technologien. Zusätzlich erzeugt Phusphor ein GANZ anderes Bild als OLED.

Ich empfand OLEDs schon immer als stressig in ihrer Darstellungsweise. Die Farben sind zu krass und haben mit der Realität wenig zu zun. Selbst wenn man die Dinger farblich bändigt bleibt die OLED Darstellungsweise. Neulich meinen alten Plasma zwecks XBox360 und co wieder angeworfen. Was soll ich sagen? Sehr angenehmes und natürliches Bild was durch Phosphorleuchten erzeugt wird. Von Hauttönen (Film) ganz zu schweigen! Out of the box wohlgemerkt (Kinomodus).

Ja in der Realität kann es auch zu extremen Kontrasten kommen wenn die Sonne sehr hell scheint, und auch hier wird es stressig nicht wahr? Wieso zieht man Sonnenbrillen an;) Nun wieso sollte ich mir das die ganze Zeit auf meinem Bildschirm antun? Womöglich noch bei ganz abgedunkeltem Raum?

Dieses ganze gebetsmühlenartige "superschwarz mit extremen Helligkeiten ist gute Bildqualität" ist so dermassen in den Köpfen der Menschen eingebrannt dank Marketing das alle glauben "ja das ist toll!" Kommt mir vor wie sektenmässiges Hinterherlaufen von etwas was uns eigentlich nicht gut tut.

Ich bin durch mit OLED. Von all den anderen lustigen Problemen ganz zu schweigen...

Ich versuche hier NICHT Leute davon zu überzeugen was ICH für meine Augen/Gesundheit gut befinde sondern lediglich ein Aufzeigen was meine Erfahrung ist gekoppelt mit meiner "wissenschaftlichen" Erklärung wieso und warum:)

Intel - Stabilitätsprobleme bei Raptor Lake

Prozessoren und Chipsätze - vor 27 Minuten 14 Sekunden
Die Sache ist doch ganz klar:

Nur das Baseline-Profil garantiert die uneingeschränkte Stabilität einer CPU.

Alles andere ist Mobo-abhängig.

AMD - FX-8350 (Vishera) - Review-Thread

Prozessoren und Chipsätze - vor 3 Stunden 9 Minuten
Zitat: Zitat von Ex3cut3r (Beitrag 13538523) Mit Verschwörungstheorien kenn Ihr Euch doch am besten aus, schließlich wollt Ihr hier eine Krücke, die damals einfach schon scheiße, war, bestmöglich aussehen lassen, da werden dann Fabel übers Streaming und das er eine MT Stärke hat ausgepackt. Dabei war die Tech der größte Rotz ever und hat AMD fast pleite gemacht. Tut uns leid für Dich, wenn du nicht verstehst das die CPU bei vielen Workloads eben nicht eingebrochen ist. Mit VST hat das nichts zu tun du Schnacker.
Du hast ja nicht nur das Game auf, sondern OBS, Discord, Browser mit X Tabs, Snaz, Streamlabs Chatbot, Coretemp, Steam und weitere Game Launcher (auch schon 2017).

Aber glaube das ist auch nun mehr als durchgekaut.

AMD/ATI - Radeon RX Vega 56/64: Review-Thread

Grafikchips - Mi, 08.05.2024 12:24
Die Bandbreite mit zwei HBM²-Stacks ist auch riesig ohne IF$. Mit einem Takt von 1000Mhz HBM² kommen da schon 512 GB/s zusammen. Dass AMD diese Karten noch an "Gamer" verkauft hatte, ist rein "Perlen vor der Säue" vor dem Hintergrund, dass Huang HBM² ausschließlich für teure Workstation / Mining und HPC-Produkte reserviert hatte.

Auch im HDR-FSR-Raster Jahr 2024 ist Vega56/64 nach wie vor eine sehr gute Einsteigerkarte. Unoptimiert auf dem Level der ~RX 6600 und optimiert in 1440p bzw. FSR-B-UHD wahrscheinlich schneller.

Leider fehlt mir derzeit die Zeit mal ein ordentliches Review Vega64 gegen die 1080Ti im HDR-FSR-UHD Modus durchzuführen, und vor allem interessante Spieletitel über die Jahre auszusuchen um auch die wirkliche "Zukunftstauglichkeit", spricht 2017 bis 2024 zu testen.

AMD - Ryzen 7000 (Zen 4) Review-Thread

Prozessoren und Chipsätze - Di, 07.05.2024 19:42
Zitat: Zitat von Exxtreme (Beitrag 13536726) Anscheinend gibt es ein Engineering Sample eines 7950X3D mit 2x Cache. So dass beide CCDs vom Cache abgedeckt werden um man sich die Sache mit Chipsatztreibern und Xbox Bar etc. sparen kann.

https://www.pcgameshardware.de/Ryzen...plets-1446821/

Bin gespannt wie schnell das Ding in Spielen ist. X-D Na ich weiß nicht. Vermutlich wird es trotzdem unterhalb des 7800x3d performen, wenn der Cache hilft, weil dann zwischen den Caches hin und her gesprungen wird, falls der Scheduler das nicht in den Griff bekommt.
Ansonsten fehlen ihm dann natürlich die schnelleren Kernchen, wenn es eher auf den Takt ankommt. Effizienter dürfte das Ding aber schon sein.

AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread

Grafikchips - Mo, 06.05.2024 21:38
Dual issue war doch seit dem dritten Treiber für RDNA3 kein Problem mehr, außer dass die Leistung mit jedem neuem Treiber etwas verbessert wurde. Eine 7800xt für 480€ ist ein Nobrainer.

AMD - Ryzen 9 7X3D Verfügbarkeitsthread

Prozessoren und Chipsätze - Mo, 06.05.2024 10:42
Zitat: Zitat von OgrEGT (Beitrag 13533910) Eigentlich sehr geil... Ich warte aber jetzt auf den Zen5X3D :massa: Darauf warte ich auch. Mein 5800x3d hält derweil noch sehr gut mit. Da kann ich bei Zen4 nichts sehen was mich reizt. Dafür sind mir die Umstiegskosten aktuell noch zu hoch für das bisschen Performancegewinn. Schade das es die 8000er Chips nicht mit 3d Cache gibt. Dürfte zen4c deutlich Beine machen trotz des niedrigen takts.

Die Mainboards sind aber nach wie vor seltsam im Preis gestaltet. Viel zu teuer. 2pcie x16 ports die kaum einer mehr braucht, ...
Auch das aktuelle Grafikkarten kein pcie V5 unterstützen ist nicht hilfreich. Klar wird es nicht viel bringen, aber warum verbaut man es dann inzwischen seit Jahren...
Der gewöhnliche Endkunde interessiert sich sicherlich nicht für noch schnellere nvmes. Aktuell ist in vielen Mainboards einfach so viel Nischenfeature drin, was auch die Preise zusätzlich treibt.

nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3

Es ist halt so, dass Strategiespiele meist an der CPU kleben. Und da könnte man FG sehr wohl gut nutzen um viel mehr fps rauszuholen.

OLED macht Fortschritte

Zitat: Zitat von w0mbat (Beitrag 13536288) Ich spiele gerade Dusk HD und wow - das Spiel sieht auf OLED viel besser aus! Dunkle Szenen sind richtig toll, es gibt bereiche in denen es komplett schwarz ist, bis auf ein paar Funken. Sieht wie ein komplett neues Spiel aus.
Ich staune in dunklen Spielen auch immer wieder. MOAR! (y)

Auflösung, AA und AF

Zitat: Zitat von Exxtreme (Beitrag 13536142) Weil die meisten Engines sog. "deferred renderer" sind. Und da funktioniert MSAA schlicht nicht. Funktionieren würde es mit der richtigen Hardware schon, es wäre allerdings kaum schneller als Supersampling

Zitat: Was da noch funktioniert ist SSAA und ansonsten nur noch Bildanalyse-Antialiasing-Techniken, zu denen auch TAA gehört. TAA ist keine Bildanalysetechnik, es ist Supersampling über Zeit.
Was du meinst sind Dinge wie FXAA oder MLAA

OpenAI Sora - Creating video from text

Zitat: Zitat von Durango (Beitrag 13512341) Grad das, temporale Stabilität, ist verdammt schwer mit dieser Technologie (LLM). Das Ergebnis ist halt immer etwas ungewiss. Die Videos sehen nett aus, aber mit ein paar Schnitten und so vom selben Objekt sähe das anders aus. Naja, irgenwann fällt das auch unter die Wahrnehmungsschwelle: siehe z.B. die Stunt-Doubles in den aktuellen Non-KI-Filmen. ;)

Man muss halt die KIs weiter auf diese Anforderung Trainieren, notfalls durch Reinforcement durch eine andere KI, die solche Abweichung bemerkt bzw. nach einem menschlichen Aufmerksamkeitsmuster bewertet.

Unreal Engine 4

UE4 + Erweiterungen im AAA Bereich


AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread

Grafikchips - Sa, 04.05.2024 19:21
Die gute 6700XT 12GB ist schneller als die RTX3080 / Ti. :tongue:
NV kann bei Bethesda nicht mehr tricksen mit dem Speichermangel:

Fallout 4 Next Gen Update:

AMD/ATI - Radeon RX 7000 Serie: Verfügbarkeit und Preise

Grafikchips - Sa, 04.05.2024 09:59
Zitat: Zitat von OgrEGT (Beitrag 13535605) Du kannst die TBP begrenzen mit bis zu -10% PL oder über den Max Takt oder über die Max FPS...
Ich habe mi dem Silent BIOS meiner 7900XT Nitro -5% PL die TBP bei 300W begrenzt...
also powerlimit zu begrenzen hilft eher wenig. die 3090 hat mein 600w netzteil auch mit 250w powerlimit zum ausschalten gebracht. aber mit UV konnte ich sogar das powerlimit erhöhen und sogar mehr als 350w realverbrauch fahren ohne dass das netzteil meckerte.


da die tdp regulierung bei ampere sehr träge war, kamen trotzdem hohe peaks bei niedrigen powerlimits raus. wenn du aber die voltage um 15% reduzierst, dann reduzierst du eben auch die peaks um 15% .wenn man dazu noch die letzten 100mhz takt wegnimmt, kann man die peaks noch weiter reduzieren. da die reale leistung durch uv ja steigt, hat man trotzdem noch die leistung wie zuvor.

AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread

Grafikchips - Fr, 03.05.2024 20:00
Zitat: Zitat von vinacis_vivids (Beitrag 13535430) Wollt ihr mich verarschen? Wieder ne Nvidia Karte? AMD hat selber gezeigt wie kaputt FSR wenn dir das als Quelle besser passt.


https://community.amd.com/t5/gaming/...ng/ba-p/674027

Intel i5 13500 Vcore

Prozessoren und Chipsätze - Fr, 03.05.2024 09:45
Vollkommen normal die VCore.

AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread

Grafikchips - Do, 02.05.2024 10:18
ah danke euch beiden :up:

Dachte zuerst es wäre das links, aber das hat gefühlt eigentlich gar nichts gebracht :rolleyes:

nur ganz kurz(!) getestet:
im Schnitt rund 160W[neu:150]. Manchmal nur 120W[neu:100], dann wieder ein Spike kurzzeitig 180W[neu:200 :freak: ]

naja besser als nix ;D
Miniaturansicht angehängter Grafiken  

VIA - Zhaoxin x86-Prozessoren

Prozessoren und Chipsätze - Do, 02.05.2024 03:27
Zitat: Zitat von Loeschzwerg (Beitrag 13532705) KX-6000 is also an out-of-oder design. VIA Isaiah core (Nano) was the first implementation of an out-of-order architecture. KX-7000 is probably just improving the execution and branch prediction.

Can't wait for an in-depth review from Chips&Cheese like they always do:
https://chipsandcheese.com/2021/09/2...tric-boogaloo/ Than you so much for the clarification and the link to chipsandcheese. I just read all 4 articles, including Isaiah’s Branch Predictor on part 1 and Lujiazui Branch Predictor on part 2. All very interesting to me.
Overall they point several issues/limitations and therefore points to be improved.
So I now understant your interest on their next article about KX-7000 and their take on changes from Lujiazui. I too am now very curious to read it.

Real-time Raytracing

Natürlich ist GI geil.
Wenn die Welt von Might & Magic aber so clean wie ein OP-Saal aussieht, dann passt das einfach nicht.
RTX Remix ist erst richtig geil, wenn man nicht nur Beleuchtung einfügt, sondern auch die Texturen optimiert.
Diese Arbeit machen sich aber die wenigsten.
Inhalt abgleichen