Kategorien
Allgemein Der Tag im Überblick: Alle Meldungen

NVIDIA beendet die Quadro-Treiberunterstützung für Windows 7 und andere Betriebssysteme ab Mitte Januar

NVIDIA gab als Antwort auf eine Support-Anfrage bekannt, dass die Quadro-Treiberunterstützung für ausgewählte Windows-Versionen ab dem 14. Januar 2020 eingestellt wird.

Dazu gehören alle Editionen von Windows 7, Windows 8, Windows 8.1, Windows Server 2008 und Windows Server 2008 R2.

NVIDIA wird weiterhin Treiberaktualisierungen mit Fehlerkorrekturen und Sicherheitspatches bis zum 14. Januar bereitstellen. Danach wird NVIDIA keine neuen Quadro-Treiber mehr veröffentlichen, die diese Betriebssysteme unterstützen. NVIDIA wird sich auf die Bereitstellung von Treiberaktualisierungen für Windows 10-Client-, Enterprise- und Serverversionen konzentrieren und die Benutzer zum Upgrade ermutigen. Die Tür für erweiterten Support von bestimmten Unternehmensbenutzern bleibt offen. Sie werden gebeten, sich an ihren NVIDIA-Vertreter zu wenden.

Quelle: techpowerup

Kategorien
Allgemein Der Tag im Überblick: Alle Meldungen Technologie

AMD Radeon RX 5600 XT Navi 10 Gerüchte Hinweis auf 1920 SPs und 6 GB GDDR6

AMD hat mit der Veröffentlichung der Radeon RX 5700-Grafikkartenserie offiziell seine Navi-GPU-Architektur eingeführt, und langsam, aber sicher werden weitere SKUs eingeführt. Dazu gehört auch die kürzlich vorgestellte Radeon RX 5500-Serie. In Kürze wird es jedoch eine neue Radeon RX 5600-Serie geben, einschließlich eines XT-Modells, das Gegenstand eines neuen Leaks ist.

Bevor wir uns mit der Radeon RX 5600 XT befassen, schauen wir uns kurz die Kernspezifikationen der bestehenden AMD-Navi-Produktreihe an, um herauszufinden, welche es so gibt…

Radeon RX 5700 XT 50th Anniversary Edition (Navi 10): 2.560 Stream-Prozessoren (40 CUs), 1.680 MHz Basistakt, 1.830 MHz Spieletakt, 1.980 Boost-Takt, 8 GB GDDR6 (14 Gbit / s), 256-Bit-Bus

Radeon RX 5700 XT (Navi 10): 2.560 Stream-Prozessoren (40 CUs), 1.605 MHz Basistakt, 1.755 MHz Spieletakt, 1.905 MHz Boost-Takt, 8 GB GDDR6 (14 Gbit / s), 256-Bit-Bus

Radeon RX 5700 (Navi 10): 2.304 Stream-Prozessoren (36 CUs), 1.465 MHz Basistakt, 1.625 MHz Spieletakt, 1.725 MHz Boost-Takt, 8 GB GDDR6 (14 Gbit / s), 256-Bit-Bus

Radeon RX 5500 XT (Navi 14): 1.408 Stream-Prozessoren (22 CUs), 1.670 MHz Basistakt, 1.717 MHz Spieletakt, 1.845 MHz Boost-Takt, 8 GB / 4 GB GDDR6 (14 Gbit / s), 128-Bit-Bus

Kehren wir zum Leaks der Radeon RX 5600 XT zurück. Wir haben seit mindestens Juli von einer Radeon RX 5600-Serie gehört, wobei eine der frühesten undichten Stellen darauf hindeutet, dass die neuen Karten mit einer Navi 14-GPU unter der Haube mit 1.536 Stream-Prozessoren (24 CUs) eintreffen werden. Diese Angaben könnten jetzt jedoch falsch sein.

Nach neuen Informationen von Igor’s Lab, geben Quellen von AMDs Boardpartnern in China an, dass die Radeon RX 5600 XT erneut auf Navi 10 zurückgreifen wird. Dies würde einem doppelten Zweck dienen – es würde der Radeon RX 5600 XT zusätzliche Leistung verleihen und die Kosten  im Schach mit den Board-Partner senken. Da diese mit bestehenden PCB-Designs pin-kompatibel bleiben würden. Dies würde auch dazu führen, dass die Karten schneller auf den Markt kommen.

Das würde die Sache sicher interessant machen. Die Navi 10-GPUs von AMD verfügen über zwei Shader-Engines mit jeweils zwei Asynchron-Compute-Engines. Berichten zufolge könnte AMD eine der vier Asynchron-Computing-Engines für die Radeon RX 5600 XT deaktivieren.

Wenn es nicht aktiviert ist, verfügt Navi 10 über 2.560 Stream-Prozessoren (40 CUs), 160 Textur-Mapping-Einheiten und 64 Render-Ausgabeeinheiten. Für AMD wäre es jedoch nicht sinnvoll, die Sperre aufzuheben, da die Radeon RX 5700 XT diesen Performance-Platz bereits einnimmt.

Was am wahrscheinlichsten ist, dass AMD eine der vier asynchronen Rechenmaschinen deaktiviert, was zu 1.920 Stream-Prozessoren (30 CUs), 120 Textur-Mapping-Einheiten und 48 Render-Ausgabe-Einheiten führt. Es wird auch gemunkelt, dass die Karte mit 6 GB GDDR6-Speicher geliefert wird, obwohl auch eine 8-GB-SKU möglich wäre. In jedem Fall würden wir uns einen 192-Bit-Speicherbus ansehen müssen.

Während nichts offiziell ist, passen die gemunkelten Spezifikationen gut in die bestehende Navi-Aufstellung von AMD. Aber wir müssen abwarten und sehen wie sich diese Karte entwickelt.

Quelle: hothardware

Kategorien
Allgemein Der Tag im Überblick: Alle Meldungen Im Fokus

Intel stellt ehemaligen AMD GPU Silicon Executive ein

Masooma Bhaiwala ist Intels jüngste Talentakquisition von AMD, die dort eine GPU-Produktreihe mit aufbaute. „Nach über 15 Jahren bei AMD habe ich beschlossen, eine andere Gelegenheit zu nutzen … Es war eine wirklich lustige Fahrt mit einem unglaublichen Team, in der wir einige wirklich coole Chips gebaut haben“, schrieb sie in einem LinkedIn-Beitrag.

Laut ihrem Profil übernimmt Bhaiwala die Rolle des Vice President für diskrete GPU-SoCs bei Intel und arbeitet unter der Leitung von Raja Koduri in der Hardware-Engineering-Gruppe für Grafik- und Durchsatz-Computing von Intel.

Koduris Team war für ehemalige AMD-Führungskräfte und Tech-Leads eine Glastür. Während es Ingenieurtalente wie Balaji Kanigicherla, Kalyan Thumaty und Joseph Facca angeheuert hat; Gleichzeitig hat es das Marketingtalent für Kundengrafiken eingebüßt, so dass in weniger als einem Jahr nach der Gründung des Unternehmens beispielsweise Chris Hook, Heather Lennon und Jon Carvill aus dem Unternehmen gewandert sind. Neben Koduri, Intels wertvollster Akquisition von Technologietalenten, arbeitet Jim Keller an einem zukünftigen High-IPC-CPU-Kerndesign für das Unternehmen. Während seiner Zeit bei AMD hat Kellers „Zen“ -Mikroarchitektur zusammen mit der Führung von CEO Lisa Su eine der größten Wendungen im Silicon Valley herbeigeführt.

Quelle: techpowerup

Kategorien
Allgemein Der Tag im Überblick: Alle Meldungen Technologie

BitFenix ​​stellt die Alchemy 3.0 ARGB-GPU-Halterung vor

BitFenix ​​hat heute ein Zubehörteil für die Sicherheit Ihrer Grafikkarten angekündigt und welche Ihrem Build zusätzlichen Glanz verleihen.

Die BitFenix ​​Alchemy 3.0 ARGB GPU Halterung ist eine Unterstützung für Ihre Grafikkarte. Diese kann in Ihrem PC-Gehäuse installiert werden und  eine physische Unterstützung bieten. Dies verhindert ein Durchhängen und kann weitere Probleme vermeiden. Dies sind Probleme welche bei der Installation einer Grafikkarte mit einer leistungsstarken, schwergewichtigen, benutzerdefinierten Kühllösung auftreten können (Es unterstützt buchstäblich Grafikkarten mit einem Gewicht von bis zu 7,5 kg und einer Länge von 80 bis 120 cm).

Die BitFenix ​​Alchemy 3.0 ARGB GPU Halterung verfügt über eine ARGB-Beleuchtung, die Benutzer steuern und nach Belieben anpassen können. Die 18 verfügbaren Befestigungslöcher gewährleisten maximale Kompatibilität, unabhängig von Ihrer Grafikkarte.

Außerdem werden drei verschiedene Verlängerungshalter mit den Maßen 45 mm, 80 mm und 120 mm geliefert. Die GPU-Halterung belegt jedoch drei freie PCI-Steckplätze in Ihrem Build. Denken Sie also daran, wenn Sie dies vorhaben.

Quelle: techpowerup

Kategorien
Aktuelle Tests & Specials auf Hardware-Inside Allgemein Grafikkarten

KFA2 GEFORCE GTX 1660 Super im Kurztest

Nachdem wir schon die GTX 1660 Ti und 1650 EX von KFA2 getestet haben, werfen wir heute einen Blick auf die GTX 1660 Super. Wie der Name schon erahnen lässt, handelt es sich dabei um die Einstiegskarte in der „Super“-Flotte fürs Gaming. Wir sind vor allem sehr gespannt, wie sich die GeForce GTX 1660 Super im One-Click-OC schlägt.



Bevor wir mit unserem Test beginnen, danken wir unserem Partner KFA2 für die freundliche Bereitstellung des Testmusters.

 

Verpackung & Daten

Verpackung

 

Die Verpackung der KFA2 GeForce GTX 1660 Super ist recht klein, doch auf ihr sind alle wichtigen Informationen abgebildet. im Vordergrund steht das sog. 1-Click-OC, welches der GPU ermöglicht, auf eine einfache Weise ihren Takt um 15MHz zu erhöhen. Außerdem entnehmen wir der Verpackungsfront, dass zwei 90mm Lüfter eingebaut sind, 6GB Grafikspeicher und alle gängigen Monitoranschlüsse zur Verfügung stehen.



Auf der Rückseite befinden sich einige Beschreibungen der Features, wie bspw. die Verwendungsmöglichkeit von Multi-Monitoring und 4K-Streams sowie eine Empfehlung für die Hauseigene Überwachungs- und Übertaktungssoftware XTREME TUNER Plus.



Auf einer der langen Seiten befinden sich darüber hinaus eine Liste der Schlüssel-Features und der minimalen Systemvoraussetzungen.

 

Daten
KFA2 GeForce GTX 1660 Super  
Grafikchip TU116
Fertigung 12 nm
Shader / TMUs / ROPs / SM 1408 / 88 / 48 / 22
Boost-Takt 1800 MHz
Speichergröße 6GB GDDR6
Speichertakt 7000 MHz
Speicheranbindung 196 Bit
Kühler-Material Aluminium
Abmessung Länge: 214 mm, Breite: 118 mm, Höhe: 39 mm
Gesamthöhe Dual-Slot

Die Fertigung der GPU findet in 12nm statt. Durch die fehlenden Tensor-Cores ist die GTX 1660 Super nicht in der Lage auf DLSS (Deep Learning Super Sampling) zurückzugreifen. Anstatt der Tensor-Cores kommen, neben den INT32- und FP32-Einheiten, FP16-Einheiten (Floating Points) zum Einsatz. Die FP16-Einheiten sorgen für zusätzlichen Datendurchsatz bei Berechnungen, sind allerdings nicht so präzise wie FP32-Einheiten. Insgesamt kommt der TU116 auf 22 SM-Cores, die einem CPU-Kern ähneln. Mit 22 SM-Cores verfügt die GTX 1660 Super über 1408 Shader-Einheiten, 88 TMUs und 48 ROPs. Der Grafikkartenspeicher ist mit 6GB GDDR6 darüber hinaus schneller als noch bei der 1660 Ti. Der Speicher ist mit 196 bit angebunden. Im Vergleich zu einer 1660 Ti liegt die Super-Grafikkarte in Puncto Speichertakt klar vorne, denn ihre Taktung mit 7000 MHz gegenüber 5750 MHz ist dem neueren GDDR6-Speicher geschuldet. Dafür ist die Speicheranbindung mit 192 Bit identisch. Auch der Boots-Takt liegt etwa 100 MHz über dem, der 1660 Ti.

 

Details

Detailansicht



Mit einer Länge von 214mm ist die GeForce GTX 1660 Super auch für kleine Gehäuse im mini-ITX-Format geeignet. Dies kommt nicht von ungefähr, denn KFA2 verbaut auf der GTX 1660 Super zwei 90mm große Lüfter. Ansonsten ist die Grafikkarte weder RGB-Beleuchtet, noch offenbart sie optische Highlights. Der Kühler ist mit sechs Schrauben fixiert worden und kann schnell bei Bedarf demontiert werden.



Die KFA2 1660 Super kommt mit einer schwarzen Backplate mit grauen Details.



Beim seitlichen Blick auf die Grafikkarte können wir den Stromanschluss erkennen und es fällt auf, dass sie nicht für SLI-Verbunde konstruiert ist. Darüber hinaus erkennen wir die Silhouette der Aluminiumrippen.



Für die Peripherie am Monitor stehen uns insgesamt drei Anschlüsse bereit. Dabei handelt es sich um einen DisplayPort, einen HDMI und einen DVI-D Anschluss. Darüber hinaus unterstützt die Grafikkarte HDCP 2.2.

 

Teardown

 

Damit wir einen Blick auf die GPU und den Grafikkartenspeicher werfen können, demontieren wir den Kühler. Nachdem wir den Kühler entfernt haben, erkennen wir im Zentrum den rechteckigen Prozessor, welcher von den sechs verbauten GDDR6-Speicherbausteinen mit Wärmeleitpads umgeben ist. Auf dem Grafikprozessor ist Wärmeleitpaste aufgetragen.

 

Der Kühler selbst ist aus Aluminium gefertigt und bietet eine Heatpipe aus Kupfer. Des Weiteren gibt es auch eine GPU-Kontaktfläche aus Kupfer. Somit ist die Kühlerkonstruktion recht hochwertig gestaltet.



Die Platine der KFA2 GeForce GTX 1660 Super hat nicht viele Bauteile, so finden wir den TU116 Chip und die schon erwähnten GDDR6-Speicherbausteine die mit 196Bit an die GPU angebunden sind.

 

Praxis

Testsystem  
Mainboard ASUS X99 Deluxe II
Prozessor INTEL CORE i7-6850K
Arbeitsspeicher 2x G.Skill TridentZ – DDR4 – 3000 MHz – 8 GB
Prozessorkühler AlphaCool Eisbär 280
Grafikkarte KFA2 GeForce GTX 1660 Super
M.2-SSD / SSD SAMSUNG 970 EVO / CRUCIAL MX500

 

Benchmarks und 1-Click-OC

 

 


Zu Beginn des Praxistests unterziehen wir die 1660 Super dem Firestrike Benchmark bei einer Auflösung von 1920 x 1080 Pixeln. Wir erkennen, dass die 1660 Super mit 1905 MHz taktet und einen Speichertakt von 1750 MHz aufweist, was ihr eine kombinierte Punktzahl von 6781 Punkten ermöglicht. Nachdem wir die Option des One-Click-OCs angewandt haben, steigert sich der GPU-Takt, wie auf dem zweiten Bild zu erkennen, um 15 MHz auf 1920 MHz, was die kombinierte Punktzahl auf 6802 Punkte erhöht. Weiterhin zu erkennen ist, dass die FPS-Werte nach dem OC leicht um ein bis zwei Frames erhöhen.

 
 
Im Time Spy Benchmark verwenden wir ebenfalls eine Auflösung von 1920 x 1080 Pixeln und erhalten nach abgeschlossenem Testdurchlauf einen Wert von 6039 Punkten. Zu beachten ist jedoch, dass der GPU-Takt bei 1875 MHz liegt und erst nach 1-Click-OC auf 1890 MHz angehoben wurde, woraus eine Punktzahl von 6068 Punkten resultiert. Die Framerates vor und nach dem OC liegen diesmal jedoch bei einer Differenz von unter einem FPS.


Obwohl wir die 1660 Super mit Auflösungseinstellungen von Full-HD gebencht haben, wollten wir es uns nicht nehmen lassen, zwei Klassiker des Strategiespiel-Genres auf UHD-Auflösung zu spielen. Während wir in Anno 1800 eine kleine Stadt von rund 36.000 Einwohnern aufgebaut haben, rutschen die anfangs noch sehr stabilen FPS-Raten von über 60 FPS, schnell in den Keller und landen bei knapp 27 FPS. Einen vergleichbaren Wert erhalten wir innerhalb einer Full-HD-Auflösung erst bei einer Stadt von 120.000 Einwohnern. Darüber hinaus konnten wir einige Stunden unserer Zeit der Age of Empires II Definitive Edition widmen. Nachdem wir zu Beginn Schwierigkeiten mit unerwarteten Abstürzen während den Ladevorgängen hatten, relativierte sich das Problem interessanterweise, nachdem wir das 1-Click-OC deaktiviert haben. Schließlich konnten wir auch ohne dieses Feature eine Siedlung von 500 Einwohnern gründen und gegen zwei andere Gegner in die Schlacht ziehen, ohne dass die FPS-Werte unter 30 Frames gerutscht sind.

Egal ob im Idle, beim Gaming oder während des Benchs, die Grafikkarte ist neben den, im Gehäuse eingebauten Lüftern nicht zu hören und bewegt sich in einem zu vernachlässigenden Bereich von unter 37dB, was sicherlich auch dem Carbide, als isoliertes Case, geschuldet ist.
 
 

Fazit

Die KFA2 GEFORCE GTX 1660 Super liegt annähernd auf dem Niveau einer GTX1070, dafür jedoch zu einem besseren Preis. Sie ist derzeit für 234€ zu erhalten und gehört somit zu den günstigsten 1660 Super Grafikkarten auf dem Markt. Sie hat ihre eindeutige Stärke in der Kombination zwischen guter Full-HD-Performance, Preis und Lautstärke. Hinzu kommt, dass sie durch ihre kompakte Form in nahezu jedes Case passt jedoch nicht über eine RGB-Beleuchtung verfügt.

Pro:
+ Lautstärke
+ Gute Performance in Full-HD
+ Preis
+ Verarbeitung
+ Schneller GDDR6-Speicher

Kontra:
– N/A



Wertung: 8.4/10

Herstellerseite
Preisvergleich
Kategorien
Allgemein Der Tag im Überblick: Alle Meldungen Technologie

NVIDIA Treiber GeForce 441.20 WHQL veröffentlicht

NVIDIA hat heute die WHQL-Software GeForce 441.20 veröffentlicht.

Die Nvidia Treiber sind GameReady für „Star Wars Jedi: The Fallen Order“ und „Stormland“. Dies beinhaltet die SLI-Unterstützung für das neueste Star Wars-Spiel. NVIDIA hat auch die Unterstützung für CUDA 10.2 Compute API eingeführt. Die Liste der G-Sync-kompatiblen Monitore wurde um drei weitere Displays erweitert. Zu den Problemen, die in dieser Version behoben werden, gehören Geometriekorruption auf „Maxwell“ -GPUs der GTX 900-Serie mit „Red Dead Redemption“ in Vulkan. G-Sync wird deaktiviert, wenn V-Sync in „Red Dead Redemption“ deaktiviert ist. Vulkan-bezogene Fehler mit „The Surge“ wurden ebenfalls behoben. Es gibt auch einen überraschenden Bugfix, „Quake 3 Arena“ erscheint verwaschen, wenn die Farbtiefe auf 16-Bit eingestellt ist. Leistungseinbußen mit „CS: GO“ wurden ebenfalls behoben. Besorgen Sie sich den Nvidia Treiber über den unten stehenden Link.
  
DOWNLOAD: NVIDIA GeForce 441.20 WHQL-Treiber

GameReady
Star Wars Jedi: Gefallene Ordnung
Stormland
Neue G-SYNC-kompatible Monitore
Acer XB273U
Acer XV273U Nvidia Treiber
ASUS VG259Q überwacht.
SLI-Anwendungsprofile
Star Wars Jedi: Gefallene Ordnung


Neue Funktionen und andere Änderungen
Unterstützung für CUDA 10.2 hinzugefügt
Behobene Probleme in dieser Version
[Red Dead Redemption 2] [Vulkan] [Maxwell-GPUs]: Bei einigen Maxwell-GPUs tritt eine Geometrieverfälschung auf. [2744709]
[Red Dead Redemption 2] [Vulkan]: G-SYNC wird deaktiviert, wenn V-Sync für das Spiel deaktiviert wird. [2740479]
[The Surge 2] VULKAN_ERROR_DEVICE_LOST bei Verwendung der Treiberversion 440.97. [2739146]
[Quake 3 Arena]: Farben im Spiel werden verwaschen, wenn 16-Bit-Farben eingestellt sind. [2738607]
[HDR]: HDR-Schwarzwerte sind beim LG OLED55C9 grau. [2738708]
[CS: GO]: In bestimmten Fällen mit begrenzter CPU-Leistung sinkt die Leistung des Spiels. [2682973] Nvidia Treiber

Kategorien
Der Tag im Überblick: Alle Meldungen Technologie

Radeon 550: Asrock neue Einsteiger-Grafikkarte

Nein, das ist kein Tippfehler. AsRock hat jetzt wieder eine AMD Radeon 550-Grafikkarte auf den Markt gebracht. Es ist noch nicht klar, warum das Unternehmen die alte Karte (Damals RX 550) wiederbelebt hat. Offensichtlich haben sich viele alte GPUs im Lager angesammelt, daher entschied sich AsRock, sie auf die für sich vorteilhafteste Weise zu „recyceln“. Für einfache Spiele und nicht allzu anspruchsvolle Inhalte kann eine solche Grafikkarte verwendet werden.

Hinter der Geschäftsentscheidung steckt jedoch ein gewisser Sinn. Die Radeon 550 von AMD ist das Einstiegsangebot des Unternehmens, das nur darauf abzielt, die Leistung integrierter Grafiklösungen zu verbessern und nicht mehr. Die Radeon 550 2G verfügt über 2 GB GDDR5-Speicher mit 1.750 MHz (effektiv 7.000 MHz) über einen 64-Bit-Bus, der einen Chip mit 512 Stream-Prozessoren versorgt.

Es stehen drei Betriebsmodi zur Verfügung: Lautlos für HTPC-Umgebungen, bei denen die Grafikkarte mit 1.183 MHz Boost-Takt und 7.000 MHz Speichertakt getaktet wird. Im Standardmodus wird die Karte mit den AMD-Standardeinstellungen (1.183 MHz Boost, 7.000 MHz Speicher) ausgeführt. Der OC-Modus erhöht den Boost-Takt der Grafikkarte auf 1.230 MHz und den Speicher auf 7.038 MHz. Es stehen 1x Dual-Link-DVI-D-Anschluss, 1x HDMI 2.0b-Anschluss und 1x DisplayPort 1.4 zur Verfügung. Eine TDP von 50 W sollte das Abkühlen in beengten Räumen erleichtern, und die Grafikkarte benötigt auch keine Stromanschlüsse. 


Quelle: techpowerup

Kategorien
Aktuelle Tests & Specials auf Hardware-Inside Grafikkarten

Sapphire Radeon RX 580 Nitro – Kurztest 2019

Wir hatten vor einiger Zeit berichtet, dass verschiedene Modelle der RX 580 drastisch im Preis gesenkt wurden. Kurz darauf verkündete AMD, dass es zudem noch im Rahmen des „Raise the Game“ Bundle-Deals zum Kauf eben jener, just günstiger gewordenen GPU auch noch einen hochkarätigen AAA-Titel wie Borderlands 3 oder Ghost Recon Breakpoint obendrauf gibt. Und als wäre das noch nicht genug, packt AMD auch noch einen dreimonatigen, kostenlosen Xbox Game Pass für PC dazu – mit dem man ebenfalls wieder beliebte und nagelneue Spiele wie Gears 5, Outer Worlds (Release am 25.10.2019) sowie viele andere kostenfrei spielen kann.

Aus all diesen Gründen haben wir uns dazu entschieden, die RX 580 einmal durch unseren erweiterten Spieleparcours zu schicken, um zu sehen, wie gut diese Karte trotz des Alters abschneidet und, ob sie immer noch eine Empfehlung für Mittelklassesysteme darstellt.



An dieser Stelle möchten wir uns bei unserem Partner AMD herzlich für das bereitgestellte Testsample bedanken und hoffen auf weiterhin gute Zusammenarbeit

Verpackung, Inhalt und Daten

Bei der von uns getesten RX 580 handelt es sich um die Sapphire Radeon RX 580 Nitro+, also ein Custom-Modell mit Werksübertaktung. Die Übertaktung hält sich allerdings im Vergleich zu Modellen anderer Hersteller im Mittelfeld, weshalb wir diese auch beibehalten, um einen guten Überblick über die Leistung zu erhalten, die ihr allgemein mit einer RX 580 zu erwarten habt.

 
 

Wir betreiben die AMD – GPU in einem Mittelklassepc, auch dies wieder, um ein möglichst realistisches Bild darzustellen, wie sich die Karte in einem „normalen“ HeimPC verhält.

Testsystem  
CPU Ryzen 5 2600
GPU Sapphire Radeon RX 580 Nitro+
Mainboard MSI B450 Gaming Plus
RAM G.Skill TridentZ 3200Mhz 16GB
Kühlung be quiet! Silent Loop 280mm
Gehäuse Inter-Tech F-762 Silencer
Netzteil be quiet! Dark Power Pro 10 550W



Wir haben bei den getesteten Spielen auf interne Benchmarks verzichtet und stattdessen Szenarien im Spiel selbst gesucht, die eine möglichst hohe GPU-Last erzeugen. Alle Tests sind im Ultra-Preset (oder dessen Pendant) mit ausgeschalteten, herstellerspezifischen Optionen wie Raytracing, Hairworks, Radeon Image Sharpening etc. entstanden.
Während der Tests benutzten wir den AMD Radeon Adrenaline 19.10.2 Treiber


Benchmarks

 

Temperatur, Lautstärke und Leistungsaufnahme

Bei unseren Tests wurde die Sapphire Radeon RX 580 Nitro in unserem Gehäuse zu keinem Zeitpunkt heißer als 73°C. Dies ist zwar kein extrem guter, aber dennoch ordentlicher Wert und ausreichend weit vom Throttling entfernt. Mit der Standardlüfterkurve war die RX 580 Nitro+ auch nicht aus unserem System herauszuhören, einzig bei geöffnetem Seitenteil war ein tiefes und sehr leises Rauschen zu vernehmen. Die Leistungsaufnahme im Idle wurde im Vergleich zum Vorgänger, Polaris 10 deutlich verbessert und so begnügt sich die RX 580 mit 13W im Mittel im Leerlauf.

Beim Youtube-Video anschauen, Netflix gucken oder ähnlichen Aktivitäten steigt die Leistungsaufnahme auf bis zu 32W – ein durchaus sehr guter Wert. Erst unter Last wird Polaris 20 gieriger – bis zu 212W dürfen es bei Spielen werden. Da hätten wir uns ein wenig mehr Enthaltsamkeit gewünscht.

Fazit

Für ab derzeit 162,90€ gibt es eine Grafikkarte, die mit 8GB VRAM ausgestattet ist und für die meisten Spiele im Ultra-Preset noch ausreichend Leistung hat. Nur vereinzelt muss man die Regler eventuell ein Stückchen nach links bewegen, sollte einem das FPS-Target von 60FPS wichtig sein. Dazu gibt es eines von zwei brandaktuellen Spielen sowie ein kostenloses, dreimonatiges Abo für den Xbox Game Pass, der ebenfalls nochmal mit etlichen, teils gerade erst veröffentlichen Spielen aufwarten kann. Die Temperatur und Lautstärke sind nicht wirklich zu bemängeln – aus einem normalen System sollte die Sapphire Radeon RX 580 Nitro nicht herauszuhören sein. Einzig bei der Effizienz muss man leichte Abstriche machen. Polaris 20 ist kein Effizienzwunder, aber auch kein wirklicher Stromfresser – weniger Verbrauch hätte uns aber besser gefallen.

Dank den oben angeführten Punkten bekommt die RX 580 die Preis-Leistungsempfehlung.


Pro:
+ Preis
+ Leistung in FHD
+ Attraktives Bundle (zeitbegrenzt)
+ Sehr leise

Kontra:
– 
Leicht höhere Leistungsaufnahme als Konkurrenz


Hersteller
Preisvergleich
Software

Kategorien
Der Tag im Überblick: Alle Meldungen Technologie

Intel Xe-Grafikkarte mit Dev-Kit erfolgreich

Intel arbeitet hart daran, seine erste diskrete GPU-Aufstellung erfolgreich zu präsentieren. Für Intel ist das, nach jahrelangen versuchen, die neue Aufstellung einzuführen, eines der aktuellen Prioritäten.

Während der Ergebnisauskunft für das dritte Quartal, wurden einige aufregende Neuigkeiten präsentiert. Intels CEO Bob Swan gab bekannt: „In diesem Quartal haben wir den Power-On-Ausstieg für unsere erste diskrete GPU DG1 erreicht, einen wichtigen Meilenstein.“ Beim letzten Satz bezieht sich Herr Swan auf Post-Silicon-Debug-Techniken. Bei diesem wird ein Prototyp-Chip auf einer benutzerdefinierten Leiterplatte platziert, um zu testen, ob er funktioniert oder startet.

Mit einem erfolgreichen Test verfügt Intel nun über ein funktionsfähiges Produkt, mit dem reale Workloads und Software ausgeführt werden können, die fast zum Verkauf bereit sind.

Außerdem soll das Entwicklerkit für die „DG1“ -Grafikkarte, laut Auflistungen der Europäischen Wirtschaftskommission, an verschiedene Entwickler auf der ganzen Welt gesendet werden. Dieses Bundle, mit der Bezeichnung „Discrete Graphics DG1 – Externes FRD1-Zubehörkit (Alpha) – Entwickler-Kit“, ist als Prototyp in der Alpha-Phase gekennzeichnet. Die Einführung von diskreten Xe-GPUs kann also nur wenige Monate entfernt sein. Dies bestätigt das bisherige Gerücht, dass Xe-GPUs im Jahr 2020, möglicherweise im Zeitraum Juli / August, eingeführt werden.

Quelle: techpowerup

Kategorien
Allgemein

NVIDIA könnte Ampere-GPUs der nächsten Generation im ersten Halbjahr 2020 auf den Markt bringen

Laut den Quellen von Igor’s Lab könnte NVIDIA, sobald die erste Hälfte des Jahres 2020 ansteht, die nächste Generation von GPUs mit dem Codenamen „Ampere“ einführen.

NVIDIA, das erst kürzlich die GeForce RTX Super-Reihe auf den Markt gebracht hat, könnte uns in den kommenden Monaten erneut überraschen und die Turing-Grafikkartenreihe ersetzen. Ampere soll die derzeit erhältlichen High-End-GPU-Modelle wie GeForce RTX 2080 Ti und RTX 2080 Super direkt ersetzen und viele Leistungs- und Technologieverbesserungen bringen, mit denen eine neue Grafikkartengeneration normalerweise verbunden ist.

Für den Anfang war zu erwarten, dass ein bemerkenswerter Die-Shrink in Form eines 7-nm-Knotens stattfinden wird, der den alternden 12-nm-Prozess ersetzen wird, auf dem Turing derzeit aufbaut. Dies allein sollte die Transistordichte um mehr als 50% erhöhen. Das führt zu einer deutlich höheren Leistung und einem geringeren Stromverbrauch im Vergleich zur Vorgängergeneration. Die von NVIDIA gewählte Gießerei ist immer noch unbekannt. Aktuelle Spekulationen gehen jedoch davon aus, dass Samsung Ampere herstellen wird. Möglicherweise aufgrund der Lieferprobleme, welche in letzter Zeit bei TSMC auftreten. Auch architektonische Verbesserungen sollten stattfinden. Es wird erwartet, dass die Ray-Tracing-Funktion fortbesteht und durch möglicherweise mehr dafür vorgesehene Hardware, sowie eine bessere Softwareunterstützung von Anwendungen, verbessert wird.

Quelle: Techpowerup

Die mobile Version verlassen