3DCenter Diskussionsforen

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Sa, 16.03.2024 14:58
S3 Trio 64V+ (2MB)
Matrox Mystic 220 (4 MB)
ATi Rage II (8 MB)
Riva TNT (16 MB)
Voodoo 3 3000 (16 MB)
Elsa GeForce 1 (32 MB)
Radeon 7500 (64 MB)
GeForce 3 Ti-500 (64 MB)
GeForce 4 MX 440 (Übergang für totgetaktete GF3)
GeForce 4 Ti 4400 (128 MB)
GeForce FX 5800 Ultra (128 MB)
GeForce FX 5900 XT (128 MB)
GeForce FX 5900 Ultra (128 MB)
GeForce 6800 (128 MB)
2x GeForce 6800 GT @ SLI (2x 256 MB)
2x GeForce 7800 GTX @ SLI (2x 256 MB)
2x GeForce 8800 GTX @ SLI (2x 768 MB)
--- über 15 Jahre Laptop :ugly: ---
GeForce RTX 4060 Ti (8 GB)
Radeon RX 7800 XT (16 GB)

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Work Graphs API: First Look At Performance Of DirectX 12's Latest Feature

Ab 1:20 wirds interessant was den möglichen Performanceunterschied angeht.


Portal mit RTX IO off und on:

AMD/ATI - Radeon RX 6800/6900(XT) OC/UV

Grafikchips - So, 10.03.2024 18:11
Hehe... nee, alles im normalen Bereich. Für 2380Mhz max. Boost brauche ich das hier.



Man braucht schon recht viel Zeit in Banishers Ghosts of New Eden damit sich ein Fehler zeigt und ich dann sanft auf dem Desktop mit einer Fehlermeldung vom Game lande. Teilweise kam da mit weniger als 1000mV selbst nach 2 Spielstunden nichts. Dagegen ist Timespy völlig harmlos. Dort reichen 981mV bereits aus. Bisher sind hier bei RDNA2 wirklich die UE5 Games am anspruchsvollsten was Voltage angeht.

nVidia - GeForce RTX 4080 Super Review-Thread

Grafikchips - Fr, 08.03.2024 15:05
Also DLSS3 ist echt nen killerfeature. Muss ich schon so sagen, weil es perfekt funktioniert und kein Gefrickel ist wie bei AMD. Leider.

Von der Raytracing Performance mal ganz zu schweigen. Cyberpunk mit Pathtracing war halt schon ein Erlebnis.

Und selbst mit Avatar was ich gestern mal mit DLSS3 Mod probiert hab, kannste noch gut spielen in 4K.

Insgesamt schon beeindruckendes Biest und sogar kürzer und kühler als meine alte 6900XT.

AMD - Frage zum B550-Chipsatz

Prozessoren und Chipsätze - So, 03.03.2024 18:10
Zitat: Zitat von T86 (Beitrag 13501813) Der untere x16 Slot ist ein Pcie 3.0 x4 slot vom Chipsatz
Bei fast allen b550 boards kann man den zeitgleich mit den unteren m2 Slot nutzen
Da b550 genug lanes hat kann man mit Adapter eine dritte m2 ssd verbauen wenn ;)
Falls das mal Interessant sein sollte… Das kann man fast beim Gigabyte B550 GAMING X V2 vergessen.

1 x PCI Express x16 slot (PCIEX2), integrated in the Chipset:- Supporting PCIe 3.0 x2 mode

3 x PCI Express x1 slots (PCIEX1_1, PCIEX1_2, PCIEX1_3), integrated in the Chipset:
- Supporting PCIe 3.0 x1 mode

Was man sich dabei gedacht hat würde ich auch gerne wissen. Selbst "mein altes b450 MB " hatte wenigstens einen x4 Steckplatz zusätzlich.

Intel/Micron 3D XPoint

"ERWACHE!" :whistle:

Zum Ende der Woche bringt mir jemand bei dieser Gelegneheit einfach mal so eine P1600X :| Wurde auf dem Job im Schrank noch verpackt gefunden und zum Entsorgen freigegeben.

Was kann ich damit anfangen? Kann ich damit was anfangen? :rolleyes:

Der zweite M.2 auf dem X99 - auf welchem ein Xenon steckt, ergo volle Lines - ist grad frei. Gebootet wird von 970EvoPlus. Dahinter ist ein 2x860Pro RAID0.

Geforce Now: Nvidia holt auf

Finde ich legitim im Free Tier.
ich habe jetzt schon einige Monate das Ultimate-Abo und habe nicht vor es zu kündigen. Ich merke nicht, ob es lokal oder bei GFN läuft. Bin sehr happy mit dem Dienst! Selbst bei kompetitiven Shootern ist es kaum noch bemerkbar, gute Anbindung vorausgesetzt.

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Sa, 24.02.2024 17:00
Zitat: Zitat von HOT (Beitrag 13497513) 6400 wäre doof, da das IOD dann mit 2:1 läuft. 6200 wäre das Maximum. HUB nutzt 6000er für AMD und 7200 für Intel standardmäßig. Wenn HWUB schon RAM-OC fährt, werden sie klug genug sein, ein sinnvolles Setting zu wählen, welches auch gut performed. Wenn 6400 plötzlich langsamer als 6000 laufen, weil das SoC intern den IF-Multi hochschraubt, dürften sie das mitbekommen und gefixt (oder auf 6000 gelassen) haben.

nVidia - Geforce GTX Titan: (P)Review-Thread

Grafikchips - Sa, 17.02.2024 18:04
Zitat: Zitat von Raff (Beitrag 13489771) Geforce GTX Titan elf Jahre später: Alte Enthusiast-GPU vs. neue Einsteiger-Grafikkarte

-> Nur in Teilbereichen "zukunftssicher". ;)

MfG
Raff Es gab doch auch noch die Titan Z als Flagship, die müsste doch auch Kelper GK110 sein analog zur GTX690 mit 2xGK104. Ein Vergleich (heute) mit einer HD7990 oder FirePro S10000 12GB wäre dann auch interessant. Edit: Aber man müsste sicherlich ein wenig mit dem nVidia Profile Inspector herumprobieren bis alles läuft. :redface:

Gruß
BUG

ChatGPT (KI-Chat, "HTML/Javascript"-Code erzeugen lassen)

Zitat: Zitat von Troyan (Beitrag 13491317) Benutzen Mistral mit 7B sowie Llama mit 13B Parametern. Der Vorteil hier ist, dass das ganze auf die TensorCores umgesetzt ist und nicht per CPU/Cuda läuft.

/edit: Paar Infos von nVidia: https://blogs.nvidia.com/blog/chat-w...available-now/ Was kein CUDA? TensorRT-LLM setzt auf CUDA auf, alles andere wäre dämlich... CUDA kann sehr gut mit den Tensor Kernen umgehen, oder was macht denn eine H100 damit? ;)
Kannst selbst nachschauen: https://github.com/NVIDIA/TensorRT-LLM

Offiziell aus der TensorRT Homepage:
Zitat: TensorRT, built on the NVIDIA CUDA® parallel programming model,[...]

Zitat: Zitat von Trap (Beitrag 13491360) Wenn Lllama13B geht, dann sollte technisch auch Llama70B gehen. Braucht halt in FP16 140 GB VRAM oder quantisiert so um die 45 GB. Also geht es technisch doch nicht. Wenn man nicht gerade eine dicke Quadro hat ;)

Gaming auf 8k

Nach einigen Monaten 8k muss ich heute mal ein leicht erschreckendes und überraschendes Feedback dazu geben.

Ich bin schockiert, wie gut ich 8K-Content mittlerweile erkenne und es zu schätzen weiß, wenn jemand auf Youtube mal in 8k gefilmt hat. Sobald ich dann wieder 4K sehe denke ich sowas wie:,,Uh, das ist jetzt doch ein bisschen soft". (Natürlich nur, wenn ich sehr nah vor meinem 65 Zoller sitze, aus 2m Entfernung keine Chance mehr.)

Doch ich hätte nicht erwartet, dass ich mich an 8K gewöhne wie an 120Hz und es so sehr vermisse wenn ich es mal nicht habe. Besonders, da ich es zu Beginn kaum bis gar nicht gesehen habe. Und es schockiert mich, weil 8K Geräte und Inhalte eher die Seltenheit und ziemlich teuer sind. Ich will nicht mehr zurück. Ganz ehrlich, auf einem Smartphone würden mir sogar 1080p genügen aber auf einem sehr großen TV... da will ich mittlerweile eigentlich schon 8k, auch, wenn ich es mir selbst ungern eingestehe, weil ich weiß, dass ich mir gerade keinen zweiten, ordentlichen 8K TV leisten kann. :freak:

Fu**, ich will nicht, dass mir 8K so gut gefällt, es ist noch mit so vielen Problemen verbunden, aber es ist geil. Besonders als riesen PC-Monitor ist es das Ultimum, ein wahr gewordener Pipe-Dream.
Inhalt abgleichen