Tests:
[URL=“http://enthusiast.hardocp.com/article.html?art=MTUzMSwxLCxoZW50aHVzaWFzdA==“]HardOCP[/URL]
[URL=“http://anandtech.com/video/showdoc.aspx?i=3354&p=1″]AnandTech[/URL]
[URL=“http://www.driverheaven.net/reviews.php?reviewid=588&pageid=1″]DriverHeaven[/URL]
[URL=“http://www.pcper.com/article.php?aid=590″]PCPerspective[/URL]
[URL=“http://www.extremetech.com/article2/0,2845,2325444,00.asp“]ExtremeTech[/URL]
[URL=“http://www.hexus.net/content/item.php?item=14178″]Hexus[/URL]
[URL=“http://techreport.com/articles.x/15105″]Tech Report[/URL]
4870 X2 ohne Mikroruckler: [FONT=Arial,Helvetica][SIZE=2] [URL=“http://www.xtremesystems.org/forums/showpost.php?p=3132311&postcount=469″]XtremeSystems Forum[/URL][/SIZE][/FONT]
Eine sehr feine Karte, ich bin nur auf Leistungsaufnahme und Preis gespannt. Die normale 4870 braucht ja viel weniger Strom als die beste Nvidia-Karte, dazu kostet sie auch nur die Hälfte
@spritdealer
wie kommst du zu dieser annahme …weniger strom…
[url=http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/26/#abschnitt_leistungsaufnahme]Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)[/url] schau dir mal genau die tabellen an.
der nvidia wurden relativ gut funktionierende und effektive stromspartechniken spendiert.
und hinsichtlich preis, mal diese meldung durchlesen [url=http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/drastische_preissenkung_geforce_gtx_200/]Drastische Preissenkung der GeForce GTX 200[/url]
Er hat ja geschrieben „als die beste Nvidia-Karte“, so passt es ja auch, zumal ATi im Moment noch keine/kaum Stromsparmechanismen im Treiber integriert hat und diese erst nachliefern wird.
Die Preise der GTX260 ist inzwischen akzeptabel geworden, aber wer will sich denn bei klarem Verstand eine HighEnd-Karte ohne DirectX 10.1 (jetzt wo es die ganzen Gerüchte über neue Spiele und nachträglich eingebauten Support gibt) kaufen? Die GTX280 ist immer noch viel zu teuer, das Ding ist ungefähr 15% schneller (manchmal mehr, manchmal weniger, manchmal ist sie sogar langsamer) als die HD4870 aber 75% teurer.
[quote=“Bylar, post: 8672″]Er hat ja geschrieben „als die beste Nvidia-Karte“, so passt es ja auch…[/QUOTE]
die gtx 280 frisst zwar unter last mehr, aber im idle deutlich weniger und zum größten teil ist eine gk nicht unter last, zumindest nicht bei mir 😉
[QUOTE]…zumal ATi im Moment noch keine/kaum Stromsparmechanismen im Treiber integriert hat und diese erst nachliefern wird.[/QUOTE]
hast du dafür beweise, oder ist das nur deine persönliche meinung…
unter dem test der leistungsaufname steht ja auch was dazu, nur leider kein statement von ati, ob das problem wirklich behoben werden kann oder nicht.
[QUOTE]Die Preise der GTX260 ist inzwischen akzeptabel geworden, aber wer will sich denn bei klarem Verstand eine HighEnd-Karte ohne DirectX 10.1 (jetzt wo es die ganzen Gerüchte über neue Spiele und nachträglich eingebauten Support gibt) kaufen?[/QUOTE]
tja, bei Assassin’s Creed wurde die 10.1 implementierung auch wieder rausgenommen und zudem soll der pfad fehlerhaft gewesen sein, was wohl zu einer derartigen performancesteigerung geführt hat.
man muss also abwarten, in wie weit 10.1 hier wirklich vorteile bringt.
[QUOTE]Die GTX280 ist immer noch viel zu teuer, das Ding ist ungefähr 15% schneller (manchmal mehr, manchmal weniger, manchmal ist sie sogar langsamer) als die HD4870 aber 75% teurer.[/QUOTE]
die meldung, die ich gepostet habe, ist ja auch noch recht frisch, daher werden sich die preise sicherlich noch weiter nach unten korrigieren.
weiterhin darf man auch nicht die unterschiedliche speicherbestückung vergessen gtx280 mit 1024MB und 4870 mit 512MB, was auch preisliche unterschiede bringt bzw. bringen kann usw…
zudem gibt es ja auch noch diese meldung [url=http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/nvidia_gt300_directx11_55/]Nvidia: GT300, DirectX11 und 55 nm[/url]
@Diveman28: Ich hab das die Tage entweder in einem Magazin (CT? ,PCMagazin?) oder irgendwo online gelesen. Wenn das nicht stimmen sollte – sorry dafür, ich hab das nur so wiedergegeben wie ich es gelesen habe. Da ich weder die eine noch die andere Karte habe/bekommen werde, kann ich es selbst nicht testen
[quote=“Diveman28, post: 8674″]
hast du dafür beweise, oder ist das nur deine persönliche meinung…
[/quote]
Glaubst du echt, ich würde eine persönliche Meinung posten, die ich nicht belegen kann?
Im aktuellen c’t Artikel zur HD48x0
[B]“Radeon 4800 schlägt GeForce“ c’t 15/2008 S.54[/B]
steht. [I]“AMD teilt dazu mit, dass die meisten Stromsparfunktionen noch nicht im Treiber implementiert sind.“ [/I]
[quote]
tja, bei Assassin’s Creed wurde die 10.1 implementierung auch wieder rausgenommen und zudem soll er fehlerhaft gewesen sein, was wohl zu einer derartigen performancesteigerung geführt hat.
man muss also abwarten, in wie weit 10.1 hier wirklich vorteile bringt.
[/quote]Entweder war’s fehlerhaft, oder es passt Nvidia nicht, weil es ein „the way it’s ment to be played“-Spiel ist und es floss Geld. Fakt ist, dass viele ATi-User das Spiel nicht gepatcht haben und problemlos unter 10.1 spielen (mit den bekannten Vorteilen), dass irgendjemand Probleme hatte, habe ich noch nicht gesehen, was die Ausrede, dass es fehlerhaft war, etwas mau erscheinen lässt.
[quote]
zudem gibt es ja auch noch diese meldung [URL=“http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/nvidia_gt300_directx11_55/“]Nvidia: GT300, DirectX11 und 55 nm[/URL][/quote]Das ändert ja nichts an der derzeitigen Situation, das Gerüchtechaos zeigt wohl gut die derzeitige Situation bei Nvidia, die sich heute mit offenem Mund die 4870 X2-Benchmarks anschauen dürfen. 😉
[quote=“Bylar, post: 8676″]Glaubst du echt, ich würde ich eine persönliche Meinung posten, die ich nicht belegen kann?
Im aktuellen c’t Artikel zur HD48x0
[B]“Radeon 4800 schlägt GeForce“ c’t 15/2008 S.54[/B]
steht. [I]“AMD teilt dazu mit, dass die meisten Stromsparfunktionen noch nicht im Treiber implementiert sind.“ [/I][/QUOTE]
deshalb fragte ich ja, das war ja nicht böse gemeint.
um es mal mit deinen worten wiederzugeben …Das ändert ja nichts an der derzeitigen Situation… 😉
man muss also auch hier abwarten, wie sich das entwickelt…
[QUOTE]Entweder war’s fehlerhaft, oder es passt Nvidia nicht, weil es ein „the way it’s ment to be played“-Spiel ist und es floss Geld. Fakt ist, dass viele ATi-User das Spiel nicht gepatcht haben und problemlos unter 10.1 spielen (mit den bekannten Vorteilen), dass irgendjemand Probleme hatte, habe ich noch nicht gesehen, was die Ausrede, dass es fehlerhaft war, etwas mau erscheinen lässt.[/QUOTE]
dazu kann man sich auch mal das hier durchklesen [url=http://www.computerbase.de/news/software/spiele/actionspiele/2008/mai/assassins_creed_d3d_101/]Assassin’s Creed bekommt kein D3D 10.1 mehr[/url]
[QUOTE]Das ändert ja nichts an der derzeitigen Situation, das Gerüchtechaos zeigt wohl gut die derzeitige Situation bei Nvidia, die sich heute wohl mit offenem Mund die 4870 X2-Benchmarks anschauen dürfen. ;)[/QUOTE]
ich denke, das sollte man eher ein wenig gelassener sehen, noch ist die x2 nicht draußen und da sollte man erst mal mehrere tests abwarten.
ich persönlich werde wohl diese generation aus beiden lagern auslassen, ich bin mit meiner gk immer noch sehr zufrieden, komme sowieso kaum zum spielen.
Ich werde mir wohl laaaaaaaaange Zeit keine neue Graka mehr kaufen, es sei denn natürlich, meine jetzige würde den Geist aufgeben 😀 Ich spiele eh nur 2-3x im Jahr und da ich nun ne Wii habe wohl nicht mal mehr das … Ich fände es aber gut, wenn AMD nun nach den guten neuen CPUs auch bei den Grakas mal Dampf macht und Nvidia unter Druck setzt. Die Konkorrenz der beiden ist für uns Käufer nur gut …
nur zur info:
noch ein wenig leselektüre…
[url=http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/viele_previews_ati_radeon_hd_4870_x2/]Viele Previews der ATi Radeon HD 4870 X2[/url]
Ja, eigentlich schreiben die nichts neues, nur das bekannte mit einer eintägigen Verspätung. 😉
Was HardOCP schreibt (Age of Conan Test bei einer Auflösung von [B]1900×1200[/B]) ist beeindruckend, der Karte macht es nichts aus, ob man 8xAA oder 12xAA einstellt, erst 24xAA kostet Performance:
[quote]
Above we saw that 8X AA was basically free in Conan with the 4870 X2, now we throw 12X CFAA and 24X CFAA into the mix. This graph clearly shows us that we don’t hit a GPU burden until we enable 24X CFAA in Age of Conan on the Radeon HD 4870 X2 at 1920×1200. Just, wow.[/quote]
[quote=“Bylar, post: 8769″]Ja, eigentlich schreiben die nichts neues, nur das bekannte mit einer eintägigen Verspätung. ;)[/QUOTE]
ob nun mit einem tag verspätung steht doch überhaupt nicht zur debatte…
es sind informationen, die man sich durchlesen kann…
in großen teilen besteht immer noch das nda-abkommen, daher sind die tests oder vielmehr die veröffentlichungen noch nicht sehr umfangreich, also abwarten – das da einige immer die ersten sein müssen…
im grunde ist das alles keine große überraschung, daher reißt mich da auch nichts vom hocker.
viel spannender sind geschichten wie mikroruckler, ob das problem immer noch auftritt, oder sogar komplett gelöst werden konnte, denn davon sind ja alle betroffen ati wie auch nvidia bei x2, cf, sli und weiterhin leistungsaufnahme/stromsparmechanismen, ob diese nun mit einem „neuen“ treiber funktionieren.
[URL=“http://www.golem.de/0807/61054.html“]Hier[/URL] noch ein Artikel von Golem zum Thema