Processorer ( 11 )
Grafikkort ( 45 )
Software ( 11 )
Ram ( 1 )
Harddisk ( 2 )
Andet ( 9 )
Alle ( 79 )
Grafikkort i November 2011 (Nicki (GWiZ)) kl. 06:09, 12-11-2011

Edb-Tidende lukket på ubestemt tid (mads) kl. 07:49, 13-08-2010

Tylersburg & Bloomfield - Nej det er ikke et Advokatfirma! (Erik Winther) kl. 02:50, 11-07-2009

Ny server, nye problemer (Nicki (GWiZ)) kl. 11:30, 20-10-2008

Diablo III annonceret (Clintin) kl. 21:46, 30-07-2008

Nvidia frigiver Geforce GTX 280/260 (Steffan) kl. 22:32, 27-07-2008

Anmeldelse af Crysis (EG) kl. 00:45, 14-07-2008

Zepto lancerer Nox-serien (Kufad) kl. 18:05, 03-07-2008

DirectX 11 inkluderer Raytracing (MIck) kl. 12:30, 24-06-2008

Opera 9.5 frigivet (Kufad) kl. 11:32, 13-06-2008

Specifikationer på nVidia G70 (GeForce 7800 GTX)

Skrevet af Nicki T. Hansen (GWiZ), 26. maj 2005.

NVidia har i lang tid holdt kortene tæt på kroppen, men nu er der endelige sluppet nok information ud til at give et muligt overblik over deres nye generation grafikkort med kodenavnet "G70". Denne artikel ser nærmere på rygter og formodede specifikationer. (Opdateret den 26. maj 2005)



Bemærk at vi har set nærmere på ATis næste generation HER

Følgende oplysninger er de famøse specifikationer fra VR-Zone, som snart alle hardwaresider linker til. Lad os kigge nærmere på dem

G70 comes with 3 models; GTX, GT and Standard
GeForce 7800 GTX
0.11 micron process TSMC
430Mhz core / 1.2GHz 256MB GDDR3 memory
256-bit memory interface
38.4GB/s memory bandwidth
24 pixels per clock
10.32Bps Fill Rate
8 Vertex Pipes
860M vertices/second
400MHz RAMDACs
NVIDIA CineFX 4.0 engine
Intellisample 4.0 technology
64-bit FP texture filtering & blending
NVIDIA SLI Ready (7800 GTX only)
DX 9.0 / SM 3.0 & OpenGL 2.0 supported
Single Slot solution
Single card requires min. 400W PSU with 12V rating of 26A
SLI configuration requires min. 500W PSU with 12V rating of 34A
Launch : 22nd of June
Kilde: VR-Zone (den 18. maj 2005)

Lad os nu se hvert punkt efter i sømmene.

"G70 comes with 3 models; GTX, GT and Standard" - "GeForce 7800 GTX"
Hvis vi rangerer disse som nVidia rangerer GeForce 6 serien, vil disse alle ligge i "Enthusiast"-gruppen. Bemærk, at der ikke er nogen GeForce 7800 Ultra, den hedder GTX nu. (GT-eXtreme?) Vi kan antage at de specifikationer vi har fået opgivet er til GeForce 7800 GTX. Uden at tage munden for fuld, vil jeg gætte på, at der også kommer en GeForce 7600 og 7600 GT til "Performance" segmentet, og GeForce 7200 til mainstream.

Dette billede understøtter også navnet:

Kilde: hkepc.com


"0.11 micron process TSMC"
The Inquirer modsiger dette den 18. maj 2005, men ændrer påstanden den 20. maj til at sige, at G70 i første omgang udgives som 110nm (0,11 µ), og senere som 90nm (0,09 µ).

Jeg ville undre mig, hvis nVidia sprang direkte fra 130nm til 90nm (GeForce 6 serien var 130nm), så det er nok fornuftigt at G70 kommer som 110nm i første omgang. Det kan dog sagtens være, at nVidia bare har spredt 110nm rygtet, som et røgslør så det vil ramme ATi hårdere, når G70 kommer med 90nm.

"430Mhz core / 1.2GHz 256MB GDDR3 memory"
Dette virker overraskende lavt, når man tænker på at GeForce 6800 Ultra er clocket til 425 MHz på chippen og har 256 MB 1,1 GHz GDDR3 RAM.

Hvis vi sammenligner med de formodede frekvenser fra R520 (se HER), så er GeForce 7 serien clocket meget lavt. Lad os dog stadig have Intel/AMD i baghovedet - frekvens er ikke det eneste der giver hastighed.

(Bemærk at The Inquirer læser hukommelseshastigheden forkert, og skriver 1,4 GHz.)

"256-bit memory interface"
Dette er forståeligt nok, da 512-bit interface nok stadig er for dyrt.

"38.4GB/s memory bandwidth"
Dette er en logisk udledning: 1200 MHz * (256 bit/8)/1000 = 38,4 GB/s. Dette er en del under R520s påståede båndbredde.

"24 pixels per clock"
Dette er det samme som 24 pixel-pipelines. Dette er også forståeligt nok, da ATi formentligt vil have det samme. Visse tidlige rygter sagde, at G70 ville have 32 pipelines, men dette virker ikke realistisk endnu. At springe fra 16 til 32 pipelines virker for aggressivt for både ATi og nVidia.

"10.32Bps Fill Rate"
(Vi må gå ud fra at "Bps" er en typo.)
Dette er også en ganske ordinær udregning: 430 MHz * 24 Pixel-pipelines / 1000 = 10,32 GPixels/s. Dette er noget under R520, der med sin hastighed på 700 MHz kommer op på 16,8 GPixels/s.

"8 Vertex Pipes"
Dette virker ganske muligt.

"860M vertices/second"
Dette er også en logisk udledning, men jeg kan ikke umiddelbart finde formlen for det. :-) Nuvel, så kan jeg sige at det er 260 M verticer/s mere end GeForce 6800 Ultra. (Hvis nogen kender udregningen af dette, må vedkommende meget gerne skrive det i en kommentar nedenfor.)

"400MHz RAMDACs"
Det samme som sidste generations kort, og dette har sådan set været standard i lang tid nu.

"NVIDIA CineFX 4.0 engine"
Dette siger ikke så meget, da nVidia ikke har afsløret hvad CineFX 4.0 dækker over endnu. Man kunne håbe, at det inkluderede Shader Model 4.0, men jeg tvivler på at vi er så heldige. Dette er sådan set bare et marketings-navn, som dækker et alt for bredt område, til at man egentlig bør bruge det. (Se evt. HER for specifikation af CineFX 3.0.)

"Intellisample 4.0 technology"
Dette er meget ligesom CineFX, ved at dække over alt muligt. (HER er specifikationen for Intellisample 3.0.) Egentlig dækker det alt fra AntiAliasing metoder, til forskellige former for Filtre - det bliver bare ikke specificeret ordentligt. Jeg synes, det er frustrerende, at de ikke bare kalder hver ting ved deres rigtige navn, og i stedet laver egne navne til alt.

"64-bit FP texture filtering & blending"
Dette har GeForce 6 serien også, så intet nyt under solen her.

"NVIDIA SLI Ready (7800 GTX only)"

Dette forbavser mig, da jeg ville tro at nVidia ville gøre alle kort SLI-ready i fremtiden. Hvorfor ikke gøre 7600 GT til at fornuftigt SLI alternativ til 7800 GTX? Nuvel, vi må bare se hvad de ender med.

"DX 9.0 / SM 3.0 & OpenGL 2.0 supported"
Hmm, her står intet om det nye "WGF" (Windows Graphics Foundation), men vi må næsten formode at dette er understøttet.

"Single Slot solution"
Dette lyder jo rart, da enorme kølere altid er irriterende. Dette betyder formentligt også, at G70 ikke behøver enorme mængder køling (formentligt lige så meget som GeForce 6800 Ultra).

"Single card requires min. 400W PSU with 12V rating of 26A"
Dette er meget... alt for meget! Hvis ovenstående påstand holder, har jeg svært ved at se hvordan nVidia vil holde kortet til Single Slot.

"SLI configuration requires min. 500W PSU with 12V rating of 34A"
Det er meget få PSUer, der kan trække dette i dagens Danmark. Dette bliver noget der trækker tænder ud på de ondeste systemer.

Dette billede bekræfter PSU-kravene:


Kilde: hkepc.com

"Launch : 22nd of June"
Dette virker tidligt, i betragtning af, at G70 "Taped out" i april. Jeg vil formode, at vi skal ind i august før vi se noget ordentligt.


HVAD "VED" VI ELLERS?

Den 19. april 2005 rapporterer The Inquirer, at G70 er blevet "Taped out". Hvilket betyder, at chippen er færdigdesignet, og skal til produktion nu. (Jf. TechEncyclopedia)
Efter dette er sket, vil det mindst tage 120 dage, før vi kan håbe på at se et endeligt kort på markedet. Hvis dette passer, kan vi først forvente G70 i august.


The Inquirer rapporterer den 22. april 2005, at G70 vil have 3Dc. Dette virker som et fornuftigt udsagn, da 3Dc ikke er en patentbeskyttet teknik, og nVidia ikke behøver ATis tilladelse til at implementere den. Flere spilproducenter vil formentlig også begynde at benytte denne teknik, når begge de store grafikkortproducenter understøtter den.

(Til dem der ikke kan huske hvad 3Dc er, er det en "gratis" kompressionsteknik til såkaldte "Normal maps", som kan komprimere i en rate på 4:1 uden at kræve mere af grafikkortet. Dette betyder at man kan gøre to ting med denne teknik, man kan benytte 4 gange så store normal maps med samme hastighed, eller man kan løsne en del Video-RAM plads ved at komprimere eksisterende normalmaps.)



VR-Zone rapporterede den 16. april 2005:

"NV50/G70 is a dual-core monster with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines. The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology." (Min fremhævning. -red)
Kilde: VR-Zone

Dette rygte kom ud en måned før de ovenenstående specifikationer, og derfor skal vi nok ikke lægge for meget vægt på dem. Dog lyder det interessant, da man godt kunne forestille sig, at nVidia måske bygger G70 på 90nm med 32 Pixel pipelines, og simpelthen slår en quad (4 pipelines) fra, som ATi gjorde med Radeon 9500. Den køler, der bliver påstået lyder voldsom, og korrelerer slet ikke med "Single slot solution"-rygtet højere oppe. At alle kort for TurboCache, er fuldstændigt ligegyldigt, da almindelige grafikkort slet ikke kan bruge det til noget. TurboCache er kun relevant for grafikkort integrerede i bundkort, så de ikke har deres egne ram, men må dele systemrammen.


Penstarsys postede en udmærket leder om G70 den 24. maj 2005, som indeholdt mange oplysninger, som jeg ikke har set på andre sider:

"At the J.P. Morgan conference, Marv Burkett clearly stated that the first 90 nm part will be introduced this quarter (which definitely cannot be characterized as "Fall"), and that all "large" products will be 90 nm from here on out. This suggests, in very strong language, that the G70 will be 90 nm (as it has not been released as of yet, and it is a large part)." (Min fremhævning. -red.)
Kilde: Penstarsys

Dette modsiger specifikationerne fra VR-Zone. Hvis man var konspirationsteoretiker, ville man måske påstå, at nVidia kunne have udsendt (lækket) specifikationerne, som VR-Zone har fået fat, for at lulle ATi i ro, så G70 kan blæse R520 af banen. Som Penstarsys skriver, så har nVidia forsøgt dette nummer tidligere, med deres NV40, som de udsendte "specielle" udgaver af med 8x2 Pixel Pipelines. Dette fik ATi til at føle sig sikre med deres 16 pipeline X800. Når NV40 endelig kom på gaden, var de så markant hurtigere end de "specielle" kort, hvis specifikationer lækkede til nettet.

Penstarsys fortsætter med, at liste flere interessante påstande:

"If Burkett is giving us a true glimpse (...)
- G70 will be 90 nm
- clocked significantly higher than the 430 MHz
- around 300 million transistors
- a minimum of 24 pixel pipelines
- a distinct possibility that there could be essentially 32 pixel pipelines
- a new multi-sampling unit that will be able to handle HDR content
- The "GT" version of this part could be clocked around 450 MHz
- the "Ultra"[GTX? -red.] edition of this part will probably be 500 MHz+
- Power consumption will still be around 6800 Ultra levels"
Kilde: Penstarsys

Alt dette er bestemt muligt, og jeg håber da også at disse spekulationer rammer bedre end de leakede specifikationer fra VR-Zone, da G70 i det tilfælde vil være langt underlegent R520. En meget spændende ting er den nye "multi-sampling unit", som måske kunne få HDR til ligefrem at være brugbart, uden enorme hastighedsdrop.

Skribenten fortsætter med, at spekulere i hvilke typer G70 kort der kommer, og i hvilke prisklasser de vil passe i. Han afslutter med følgende konklusion:

"Again, much of this is speculation based on comments by Marv Burkett, as well as some other small leaks and info that is floating around. When ATI released their R300 in the form of the 9700 Pro, and NVIDIA was left sitting with the aging GeForce 4 Ti series to compete with this product and the NV30 had not seen the light of day, Jen-Hsun challenged his people to match ATI, and he essentially said, "This is war!" If NVIDIA is continuing with that philosophy, then we can expect to see a lot more disinformation on coming products, and the smoke will get amazingly thick. The only thing we shouldn't do is underestimate NVIDIA. It is a very aggressive company, and their engineering talent is seriously second to none. Hopefully ATI will have taken this challenge seriously, and we can expect to see some impressive parts from them as well. The R520 does not look to be a slouch, but hopefully ATI has not been lulled into complacency with the rumors that the G70 is a lower clocked 110 nm part."
Kilde: Penstarsys

Jeg har lavet en oversigtstabel, ligesom jeg gjorde med R520 specifikationerne. Denne gang har jeg både nVidias ældre generationer, G70 og de nyeste ATi grafikkort med i tabellen. Dette skulle gøre det nemmere at få overblik.


NV20 (GeForce 3 Ti)NV30 (GeForceFX 5800)NV40 (GeForce 6800 Ultra)G70 (GeForce 7800 GTX) (Pessimist)G70 (GeForce 7800 GTX) (Optimist)R420 (RADEON X800 XT)R520 (RADEON X950 XT) (Meget optimistisk)
Teknologi, transistorer150nm, 57M130nm, 125M130nm, 222M110nm, ~300M90nm, ~300M130nm low-k, 160M90nm, 300-350M
AGP/PCI-express 16x4x/nej8x/nej8x/Ja?/Ja8x/ja8x/janej/ja
Hukommelses-bus (bit)128 DDR128 DDR (II)256 GDDR3 256 GDDR3 256 GDDR3256 GDDR3 256 GDDR3
Ramfrekvens (MHz)230 (="460")500 (="1000")550 (="1100")600 (="1200")650 (="1300")500 (="1000")900 (="1800")
Ram-båndbredde (GB/s)7,361635,238,441,63257,6
Ram-størrelse (MB)64128128/256/512256/512512256256/512
GPUfrekvens (MHz)200500400430500500700
Pixel pipelines44x2162424-321624
Fill Rate (GPixels/s)0,8?6,410,3212 - 16816,8
Vertex shaders1FP Array68868
Vertex Shaders, version1,12,0+3,03,03.0+2.0+3.0
Pixel Shaders, version1,12,0+3,03,03.0+2.0+3.0



Det er forventet, at nVidia vil fremvise G70 til Computex Taipei som kører fra 31. maj til 4. juni. Hvis/når der kommer opdaterede oplysninger vil vi opdatere denne artikel.

OPDATERING - 26. maj 2005
Det tyske site Tweakers.net har udgivet et billede, som kunne være G70 "in the flesh", så at sige. (Tak til kQleskabsindianer for at finde billedet.)


Kilde: Tweakers.net

Det virker som et meget langt kort. Hvis billedet virkelig viser G70, så holder ovenstående påstand med, at G70 bliver et "single slot solution".
Jeg kan godt lide måden nVIdia mærket er sat på køleren.



(NB! Jeg tager forbehold for stavefejl, forkerte oplysninger, seneskedehindebetændelse, øjenblødning ved lav skærmfrekvens, irritation, fanboyisme, fangirlisme, nudisme, kommunisme, grafikkortisme og force majure. I tilfælde af at du tilkalder en djævel ved at læse denne artikel 666 gange, er det på eget ansvar. Er du en trold (dette gælder dog ikke linuxtrolde), bedes du slukke din skærm og gå tilbage under din bro. Har du noget fornuftigt at tilføje, er du velkommen til at skrive i kommentarerne nedenfor.)



Kommentarer
Skriv kommentar

GWiZ - ( #200505260634 )
Skrevet 26-05-2005 Kl. 06:34
Uf, den lysegrønne skærer i øjnene, man kan næsten ikke se kolonnen helt ude til venstre. Hmm, kunne være jeg skulle gøre noget ved det. Que sera. ;-)

kQleskabsindianer - ( #200505261021 )
Skrevet 26-05-2005 Kl. 10:21
Nice nice :) Kan jo lige starte med at linke til første billede af kortet :>
http://www.tweak.dk/nyheder2.php?id=9848

Clintin - ( #200505261046 )
Skrevet 26-05-2005 Kl. 10:46
Fin oversigt, i tabellen deler du G70 op i pessimit og optimist, spørgsmålet er bare om der mon også skulle have stået optimist hos R520(uden at vi kender pessimistens bud).

Det er sjovt at se geforce 3 i forhold til de andre kort(især 6800U og G70), og så tænke på det kun er et fire år gammelt kot.

kQleskabsindianer - ( #200505261057 )
Skrevet 26-05-2005 Kl. 10:57
Hahah kom lige til at læse igen, (NB____)
Meget funny, tror ikke der kommer mange comments til denne artikel :))

Cykelskur - ( #200505261108 )
Skrevet 26-05-2005 Kl. 11:08
Også lidt underligt at de begynder at bruge GTX navnet, da det i denne generation kun var til OEM de lavede GTX, ret mig hvis jeg tager fejl.

God artikel, god detalje at tage kort med fra tidligere generationer, dog syntes jeg, ligesom Clintin, at du mangler R520 pessimist budet :) og lidt ældre ATI kort.

Men alt i alt en fremragende artikel og tillykke med det nye logo og design ;)

teamet - ( #200505261111 )
Skrevet 26-05-2005 Kl. 11:11
" "10.32Bps Fill Rate"
(Vi må gå ud fra at "Bps" er en typo.)
Dette er også en ganske ordinær udregning: 430 MHz * 24 Pixel-pipelines / 1000 = 10,32 GPixels/s. Dette er noget under R520, der med sin hastighed på 700 MHz kommer op på 16,8 GPixels/s. "
Tror ikke det er en typo. Det står da 10,32billion pixels per second svarende til en milliard per sekund svarende til giga.

Jeg synes mere at man skal bruge disse informationer som en pejling for, hvad det endelige produkt bliver. Det virker rygtepræget og usikkert. Man skal huske på, at en side som VR-Zone har en kommerciel interesse i at publicere falske specifikationer, da det giver flere besøgende til deres site. Det billede som angiveligt skulle angive psu-kravene kunne også meget let falde ind under samme afdeling.
Men stadig spændende læsning da det er ganske kvalificerede idéer omkring den fremtidige konfigurationen af grafikkort

Kimi Räikkonen - ( #200505261119 )
Skrevet 26-05-2005 Kl. 11:19
Alt for meget snak......

Giv os nu bare en stak kort vi kan overclocke og beta-teste!!

Men fin artikel by the way :-)

Kristian E - ( #200505261302 )
Skrevet 26-05-2005 Kl. 13:02
"MHz er ikke det eneste der giver hastighed". Jeg vil have "frekvens" :(
Desuden er taktfrekvens det eneste, der giver hastighed mht. RAM, så længde vi snakker 256bit DDR ved samme "latens-tider".

"NB! Jeg tager forbehold for stavefejl, forkerte oplysninger, seneskedehindebetændelse, øjenblødning ved lav skærmfrekvens, irritation, fanboyisme, fangirlisme, nudisme, kommunisme, grafikkortisme og force majure. I tilfælde af at du tilkalder en djævel, ved at læse denne artikel 666 gange, er det på eget ansvar. Er du en trold (dette gælder dog ikke linuxtrolde), bedes du slukke din skærm, og gå tilbage under din bro, har du noget fornuftigt at tilføje er du velkommen til at skrive i kommentarerne nedenfor."

Jeg mener, at det er (for) barnligt; men tegnsætning er i hvert fald slem:
Der skal hverken komma foran "jævel", efter "skærm" eller efter "bro". Til gengæld skal der komma efter "tilføje".

Cykelskur - ( #200505261639 )
Skrevet 26-05-2005 Kl. 16:39
"NB! Jeg tager forbehold for stavefejl, forkerte oplysninger, seneskedehindebetændelse, øjenblødning ved lav skærmfrekvens, irritation, fanboyisme, fangirlisme, nudisme, kommunisme, grafikkortisme og force majure. I tilfælde af at du tilkalder en djævel, ved at læse denne artikel 666 gange, er det på eget ansvar. Er du en trold (dette gælder dog ikke linuxtrolde), bedes du slukke din skærm, og gå tilbage under din bro, har du noget fornuftigt at tilføje er du velkommen til at skrive i kommentarerne nedenfor."

Synes sgu det er sjovt nok, kunne ikke lade være med at smile da jeg læste det, og smil kan man ikke få nok af i dag :)

Måske er jeg også barnlig...

kQleskabsindianer - ( #200505261645 )
Skrevet 26-05-2005 Kl. 16:45
Hvis man nu går udfra en trold er den type person der får ondt bagi af lidt humor, og kun læser en artikel igennem for at klandre skribenten for diverse små/slå fejl - burde han i så fald ikke "slukke sin skærm og gå tilbage under sin bro?"

Barnlig eller ej, jeg trak også på smilebåndet midt i en lang dag med servere, klienter og scripts.

GWiZ - ( #200505261728 )
Skrevet 26-05-2005 Kl. 17:28
Kristian E: Det skal selvfølgelig være frekvens, og ikke MHz. (Gammel vane. ;-) )

Heh, min forbehold var ganske stream of consciousness, så jeg rettede ikke særlig meget tegnsætning. Egentlig startede det ud fornuftigt nok, med kun at tage forbehold for stavefejl og forkerte oplyninger, men så kørte toget af sporet. :-)

Clintin - ( #200505261805 )
Skrevet 26-05-2005 Kl. 18:05
Jeg har lige været en tur rundt om edb-priser for at se hvad der findes af strømforsyning mellem 400-500w, hvis man tager udgangspunkt i en 450watt strømforsyninger, så kan de faktisk fås fra knap 400kr(støjniveau sat til max 20db) dog kender jeg ikke kvaliteten af de billigste. Strømforsyning ser jo trods alt ud til at blive vigtig at holde øje med.

Jensen - ( #200505261849 )
Skrevet 26-05-2005 Kl. 18:49
GWiZ <-

Næste gang du skriver noget morsomt i bunden af en artikel, så husk at tilføje grammatiske fejl, ellers får du bare flere flamer-posts der fortæller dig at du er barnlig.

HF

GWiZ - ( #200505261904 )
Skrevet 26-05-2005 Kl. 19:04
Jensen: hehe, jeg vil dække mig bedre ind næste gang. ;-)

Gandalf - ( #200505261934 )
Skrevet 26-05-2005 Kl. 19:34
Apropos G70 og R520:

"Unreal creator believes G70 beats R520"

http://www.theinquirer.net/?article=23471

baseret på videointerview lavet af jAkUp fra NVnews:

http://www.nvnews.net/vbulletin/showthread.php?t=50895&page=1

Læs/se evt. hele interviewet, det er spas nok.. Anyway, her er uddraget:


Freeman: Okay, one more question: R520 or G70?

Sweeney: [laughs] Oh, G70 for sure.

men som The Inquirer siger:

"I have to advise you to be careful about your thoughts, as Tim and Epic are in bed with Nvidia with it’s "TWIMTBP" (The way its mean to be played) marketing program. Epic also happened to be was showing its Unreal 3 engine at Nvidia's booth.

I am not suggesting he is not telling the truth just that things can be different, you never know. Life taught us to be sceptical, us Bosnians and Scottish people.

I guess we will learn the truth in just a few weeks as Nvidia plans to introduce its chip soon."

Nemlig, we just have to wait... :)

kQleskabsindianer - ( #200505262117 )
Skrevet 26-05-2005 Kl. 21:17
Gandalf :D long time no see!

Lidt mere info:
"Furthermore according to a document the shader power of this card at certain points can be twice as fast as a GeForce 6800 Ultra thanks to newly designed texture units, in specific they mean 64-bits floating point textures for HDR effects (High Dynamic Range)."

"64bit floating point"

:D Håber da på at kunne køre hdr i bl.a. farcry 1600x1200 osv - det var mit gamle 6800gt ikke specielt glad for (ned til 25 fps)

Udover det:
"You can expect a 3DMark03 score of 20.000 points (6800 Ultra does 12.000). The slogan for the card is to be expected 'Full Throttle Graphics'. And how certain is Tweakers.net about the info .. I think they have a pretty good source .. look at this image I'd say."

Kilde: http://www.guru3d.com/newsitem.php?id=2703

Cykelskur - ( #200505262143 )
Skrevet 26-05-2005 Kl. 21:43
Utroligt at Nvidia intet har lært med de små "hidsige" blæsere... :)

Hvis det ER et billede af 7800 GTX

Cutting Edge - ( #200505262145 )
Skrevet 26-05-2005 Kl. 21:45
Her har forskellige sites virkelig knoklet for at skaffe informationer hjem, og så tyvstjæler i det bare til en lynhurtig artikel? Det er da for grimt.

Tror i bryder noget copyright lovgivning desværre venner!

Carsten - ( #200505262147 )
Skrevet 26-05-2005 Kl. 21:47
Men hvis man nu vil have det bedste til spil er det så en xbox 2 ,playstation 3 eller er det stadigvæk PC som vil kunne give de andre baghjul med nye grafikkort og flere processorer.

De spil som er på vej ser jo fantastiske ud og jeg sidder og klapper i mine små fedehænder.

Men ved ikke hvad for en hest man skal spille på ;)

Cutting Edge - ( #200505262148 )
Skrevet 26-05-2005 Kl. 21:48
Hmm Cutting Edge sådan har de jo gjort i lang tid nu tror du virkelig det er ulovligt? Hvad siger teamet bag siden?

Men vil da give dig ret i, at det er lettjente point i pressen (PR) for et nærmest ukendt site.

GWiZ - ( #200505262157 )
Skrevet 26-05-2005 Kl. 21:57
Cutting Edge(s?): Diskussionen hører til i forummet. Dog kan jeg sige, at jeg ikke mener at vi bryder nogen copyright regler, da vi fungerer under det såkaldte "fair use", og desuden laver vi tydelige henvisninger til alle informationer, så jeg kan ikke se noget galt i det. Derudover tjener vi ikke penge på at bruge denne information, vi gør det bare nemmere for folk at finde det.

Holmer - ( #200505262216 )
Skrevet 26-05-2005 Kl. 22:16
God artikel, lige til at gå til. Hi5

Herlig NB.
Måske skulle Cristian E tage Slutting Edge i hånden og kravle ned under en bro.. er sikker på der er rigelig plads til begge to ;-)

kQleskabsindianer - ( #200505262235 )
Skrevet 26-05-2005 Kl. 22:35
# Cutting edge
Tjek lige øverst på sitet ikke,
"Vi samler trådene"

Kan du så komme ned under broen :>

GWiZ - ( #200505262303 )
Skrevet 26-05-2005 Kl. 23:03
holmer: Så så, der er ingen grund til at personlige angreb. Det er jo, i hvert fald i Kristian Es tilfælde, konstruktiv kritik. ;-)

seattle - ( #200505270147 )
Skrevet 27-05-2005 Kl. 01:47
Problemet med en 400W strømforsyning er ikke de 400W i sig selv, men at den skal kunne give 26A i 12v. Det er 312W i 12v så er der ikke meget tilbage til 3.3 og 5 volt !!!
Jeg sidder her med en normal (billig) 425W PS. og den kan kun levere 12A i 12v !
Det er normalt kun strømforsyninger til serverer der kan levere så meget 12v, men fremover lader det til at spille maskiner får samme krav!!!!!!!!!!!!!!!!!!

Mandak - ( #200505270315 )
Skrevet 27-05-2005 Kl. 03:15
jeg tør slet ikke tænke på prisen, mon ikke det bliver omkring 5 eller 6K i starten.

Cutting Edge:

Jeg tror vist godt denne artikkel kan gå ind under begrebet nyheds/rygte analyse og grafikken. Ja, den tilhøre nVidia (hvis den altså er ægte). Så der falder hele striben for lovgivningen, også de "hårdt arbejdende".

Man skal passe lidt på med at kalde folk for tyve.

GWiZ: Du bør nok tilføje: godt humør, dårlige formuleringer. Samt i øvrigt, alt.

:-)

Man...

Clintin - ( #200505271052 )
Skrevet 27-05-2005 Kl. 10:52
seattle du har ganske ret i at hovedproblemet er at hverken edbpriser eller it-buttikkerne er ej heller gode til at oplyse om ampere, og som du nævner er der meget få strømforsyninger der når de 26A på 12V, og selv en 680w Thermaltake strømforsyning til knap 1000kr leverer kun 15A på 12v og det skulle faktisk være deres topmodel, dog fandt jeg NorthQ kinkong og Revoltec Star Serie Chromus II der kunne levere min 26A hvis det stadig er et krav med støjsvag computer(under 20db), så for de personer ønsker g70, men ikke strømforsyningen til det, kan godt lægge 1k kr oven i prisen.

Kristian E - ( #200505271322 )
Skrevet 27-05-2005 Kl. 13:22
Holmer du bidrager ikke med noget, hvorfor du slet ikke skal skrive en kommentar - jvf: "Har du noget fornuftigt at tilføje, er du velkommen til at skrive i kommentarerne nedenfor."

Holmer - ( #200505271815 )
Skrevet 27-05-2005 Kl. 18:15
Khristian E, nu ved jeg ikke lige hvad du selv har bidraget med, mht. din sidste kommentar..

Men det vigtigeste i min kommentar stod først,
Et skulderklap til dem der gider lave denne side uden at få penge for det ;-) Keep up the good work !!

seattle - ( #200505271933 )
Skrevet 27-05-2005 Kl. 19:33
Fortsættelse
Angående 26A 12V strømforsyning.
Mon ikke vi skal vente og se hvad det virkelige krav er !
en normal computer bruger idag ikke meget 12V (Det er kun HD og div CD DVD drev er bruger 12V af betydning), tilsammen ofte mindre end 3A, og hvis vi siger at kortet æder omkring 150W så vil 16A være i orden.
Og der er jo ingen der siger at kortet ikke kan forsynes med 5V hvis der benyttes et externt stik, det hele skal alligevel transformeres ned til et sted omkring 1.5 til 2.5 volt.(jeg kender ikke spec for max lovlig power fra pci-express stikket, men regner ikke med at det kan levere nok !?).


seattle - ( #200505271954 )
Skrevet 27-05-2005 Kl. 19:54
Det ser ud til at strømforsyninger der er ATX12V v2.0 har mere 12V end normale, men som en side kommentar i spec. til pci-express siger at high-end grafikkort stadig vil kræve et ekstra powerstik.

Clintin - ( #200505272111 )
Skrevet 27-05-2005 Kl. 21:11
Du har formentligt ret, selvom high-end segmentet ikke er det der bliver tjent flest penge vil de sikkert stadigt gerne nå ud til et puplikum af en vis størrelse.

Jesper Malling Schmidt - ( #200505272116 )
Skrevet 27-05-2005 Kl. 21:16
Hej (Jeg skriver lige herinde da der ikke sker så meget mere på siden om Zalman køleren)
jeg har lige et lille hurtigt spørgsmål til artiklen om Zalman VF700-CU køleren.
Tror I at den vil passe på et X800XL grafikkort til AGP? komponenterne sidder jo lidt anderledes pga. Rialto brochippen.
Til dem der har denne køler: hvor meget rager køleren ud over grafikkortet.

kQleskabsindianer - ( #200505272138 )
Skrevet 27-05-2005 Kl. 21:38
# Jesper Malling Schmidt

Jeg tror du er nødt til at rådføre dig blandt ejere af x800xl kort, jeg ved det nemlig ærligt talt ikke :( Ifølge zalman passer den på x800 serien - om ikke andet kan du benytte dig af 14 dages fuld returret hvis du køber over nettet.

Mon ikke dit spørgsmål var bedre placeret i forum/hardware eller som kommentar til zalman artiklen?

Jesper Malling Schmidt - ( #200505272219 )
Skrevet 27-05-2005 Kl. 22:19
Jeg har også skrevet i zalman artiklen, men den er vist ved at være lidt "død"
jeg prøver i forummet så.
Siden er blevet flot, med det nye design :)

kQleskabsindianer - ( #200505272330 )
Skrevet 27-05-2005 Kl. 23:30
# Jesper Malling Schmidt
Aarh :/ havde ikke engang lagt mærke til du havde prøvet der - min fejl.

Hvis du linker til et x800xl AGP kort skal jeg nok prøve at kigge på det ;) Men jeg vil tro det nok skal passe. Læser du artiklen om vf700 igennem vil du bemærke at jeg har testet på et geforce 6600gt ( AGP ) også med rialto chip. Jeg tror eneste problem ville være hvis køleren på x800xl's kerne også dækker rialto chippen - og ikke en 2delt køler som det var tilfældet på mit grafikkort.

kelfe - ( #200505281802 )
Skrevet 28-05-2005 Kl. 18:02
Håber så sandelig at det er den optimistiske version der viser sig at være rigtig. For hvis ikke det er det så skal vi nok ikke gøre os noget håb om at kunne lave en støjsvag computer med et sådan kort. Men mon ikke at de laver et kort der er clocket så det kan køre med en pasiv køler. Det kunne ihvertfald være rart for os folk der ønsker os et farmonster men stadig gerne vil kunne bruge computeren uden at skulle have æreværn på, eller overdøve larmen med musik.

En ting jeg har undret mig over er at du ikke komenterer de billeder af pakningerne når du nu viser dem. Det er klart at NVIDIA tænker meget på hvordan deres grafikkort ser ud i butikkerne, men det virker lidt mærkeligt at de direkte går ind og siger at pigen på billedet ikke udstråler kraft og hastighed. Man forbinder jo tit sportsbiler med letpåklædte kvinder men måske er dette ikke tilfældet med billedet på pakningen.

Til dem der har lidt svært ved at læse det der står under billedet så kan jeg hjælpe lidt:
"Utilize a simple background image to convey the power of the GPU, and be sure the background doesn't compete with the other elements on the front of the box".
under billedet af pigen står der:
"Make sure charecter art and GPU unit match".

Ellers en rigtig god artikkel.

Jesper Malling Schmidt - ( #200505292241 )
Skrevet 29-05-2005 Kl. 22:41
Er der nogen der kan gisne om hvornår gt versionen kommer ud?

GWiZ - ( #200505292357 )
Skrevet 29-05-2005 Kl. 23:57
kelfe: grunden til jeg ikke kommenterer pakken er, at jeg mente det eneste interessante var navnet på kortet. Iøvrigt, grunden til de siger at billedet ikke passer er, at pigen ("Nalu", mener jeg) er ikon for GeForce 6 serien.

JMS: Tja, jeg vil mene efter sommeren - september er vel et godt bud.

kQleskabsindianer - ( #200505301027 )
Skrevet 30-05-2005 Kl. 10:27
Flere billeder af kortet @ hardwarezone

http://www.hardwarezone.com/articles/view.php?cid=3&id=1603

"Here's a close-up view of the future NVIDIA G70 graphics chip that would probably view Half Life 2 and Doom 3 as just 'a walk in the park'."

Jens H - ( #200505301043 )
Skrevet 30-05-2005 Kl. 10:43
Der står osse

The card will draw, *drumroll*, a total of 150W. That's even more than any regular desktop CPU we know. 75W will be drawn from the PCI Express interface while another 75W will be supplied through an extra power connector on the card. This will pose as a challenge to graphics card manufacturers as they start designing the appropriate cooling solutions for their card.

http://www.hardwarezone.com/articles/view.php?cid=3&id=1603

300W for SLI virker som starten på en støvsuger eller mini-turbinehal men der er vist spændende kølere på vej. . . Hvis man er til kvalitet så kan nye grafikkort handle mere om effekt og støj end ydelse.

blaQen - ( #200505301302 )
Skrevet 30-05-2005 Kl. 13:02
hardwarezones billede stinker en smule af geforce fx. Er det virkelig sådan reference køleren ser ud? Hvordan skal den så fungere imod 150 W? Ved at køre over 20000 rpm? ved 5800Us reference køler prøvede de for hårdt for at den skulle forekomme som "sej" ved at hente "frisk" luft ind samme sted blæseren pumpede varm luft ud...
Nu prøver de igen for hårdt for at kunne markedsføre deres **** som "single slot". Der er et tidpunkt hvor single slot kølere er rare at have, men serøst, de skulle bare lave en køler svarende til nv silencer og udnytte at al varme sendes væk. Jeg vil gætte på at der er ikke ret mange der vil bryde sig om en varmeafgivelse inde i selve kabinettet på 150 W per gpu, især ikke dem der vil bruge SLI/SLIX2.

GWiZ, der er en lille fejl i din oversigtstabel. 5800U kørte med ddr2 og så ved jeg heller ikke rigtig hvad det er du prøver at vise i ramfrekvens når du skriver 230(="550"),500(="550"),550(="620")...

GWiZ - ( #200505301334 )
Skrevet 30-05-2005 Kl. 13:34
BlaQen: "230 (="550") 500 (="550") 550 (="620") " <-- hvad har jeg dog tænkt på...! Mht. DDR2 har du ret, men i sidste ende gør det ingen forskel om det er DDR, DDR2 eller GDDR3 - eneste forskel er mulighed for højere frekvens.

blaQen - ( #200505301501 )
Skrevet 30-05-2005 Kl. 15:01
Det er nu ikke helt ubetydeligt fordi det vil i aller sidste ende komme an på hvor man faktisk tæller frekvensen. Imod tilsvarande ddr ram vil ddr 2 ram give fordobling når det gælder båndbredde.

GWiZ - ( #200505302117 )
Skrevet 30-05-2005 Kl. 21:17
Nej. DDR2 er ikke QDR. Både DDR og DDR2 skal kun gange bånbredden med 2. Den eneste forskel på DDR og DDR2 er at DDR2 kan clockes højere, såvidt jeg ved.

blaQen - ( #200505302148 )
Skrevet 30-05-2005 Kl. 21:48
GWiZ, som sagt kommer det an på hvor man tæller frekvens. Husk nu at det ikke er alle som tæller MHz på samme måde som nvidias salgsafdeling. Hvis du tæller ved selve dram kernen så VIL ddr 2 resultere i 4 gange båndbredde effektivitet imod sdr og 2 gange båndbredde effektivitet imod ddr.

Fjog - ( #200505302233 )
Skrevet 30-05-2005 Kl. 22:33
blaQen, tror du selv at den kommer til at suge 150W???
Lad os se lidt på faktum:
1. Den får 75W fra PCI-Express broen
2. Den får 75W fra strømstikket (ja den har kun et)
3. dette giver rigtigt nok tilsammen et muligt strømforbrug på 150W, men det vil ikke være realistisk da de så ville have smidt endnu et strømstik på, da det ville være lidt hazardspil kun at smide lige akkurat den nødvendige strømtilførsel til. Hvis det skulle være tilfældet tror jeg roligt du kan regne med en masse crashes, når grafikkortet ikke lige får den power det behøver. Tror du selv på de vil gøre det?
Næ, tror nærmere vi kommer til at ligge omkring de 100-110W, det ville nok være det bedste bud især når den nu kun bruger et singleslot design.
For tænk jer lige om gutter! De har nok lært bare et eller andet af FX-serien...

blaQen - ( #200505302306 )
Skrevet 30-05-2005 Kl. 23:06
Fjog, det er da lidt af en fornærmelse at sige vi andre ikke tænker. Jeg er enig i at PCIe porten er begrænset til 75 W. Men kan du bevise at de nye 6 pin også er begrænset til 75 W? Jeg indrømmer at jeg ikke har fulgt med på de seneste ATX standarder, dog vil det undre mig hvis det er tilfældet.

"Næ, tror nærmere vi kommer til at ligge omkring de 100-110W"Hvis du ikke kan bevise at strømstikkets ledning er begrænset til 75 W har du ikke grundlag for din 100-110 W estimering.

"det ville nok være det bedste bud især når den nu kun bruger et singleslot design."
Jeg holder stadig ved min kommentar kl 13:02 om at det er nvidias salgsafdeling der prøver på at få deres kort til at se godt ud ved ty til single slot.

Hamsterfactor - ( #200505310206 )
Skrevet 31-05-2005 Kl. 02:06
Für Kristian E.

Jeg synz din tone er kedelig og træls. Dette er i dansk lovgivning om injurier, tilladt at, tilkendegive i skrift og tale, overfor funktionærer og andre i offentligt embede, uden man kan drages til retsligt ansvar. Hvad du så end måtte få din hverdag til at gå med, vides ikke fra sølle mig. Men det er dog skidt at, dette glimrende fora, skal trækkes med dine betragtninger af andre mennesker. Når nu sitet beskæftiger sig med HARDWARE-information! Og ja, jeg har brugt tegn som det passede mig og ikke dig eller det danske skrift-sprog. Og endnu en gang ja, jeg ER MEGET barnlig lige nu..... But then agian.... So are you.

Derefter vil jeg sige tak for en god artikel igen af drengene bag denne site. Og efter jeg fandt ud af at, de jo "kun" er i starten af livet (Qua den lille site survey ang. alderen på brugerne), vil jeg sige at, det er, for mig at se, et temmeligt flot stykke arbejde de gør. Jeg nyder i hvert fald, hver en artikel fra deres hånd. Og de flrste af de indlæg som følger. Barnlige eller ej.....

Der ud over vil jeg gerne undskylde for at, jeg blev så indigneret over, det der blev skrevet. Både fra min side og fra min BARNLIGE side....

Lad barnet leve i alle. Så vil der altid være et marked for hurtigerer grafikkort og ditto CPU'er.

Med kærlig hilsen
Hamsterfactor

P.s. Resten af dette indlæg kan jo vendes i en streng i forum.

Hamsterfactor - ( #200505310213 )
Skrevet 31-05-2005 Kl. 02:13
Again EVEN
Fleste DITTO

Fjog - ( #200505312124 )
Skrevet 31-05-2005 Kl. 21:24
blaQen prøv og læs Jens H's citat længere oppe, hvilket indlæg du gik helt i spåner over.
Desuden er artiklen blevet fjernet, hvilket, hvis du spørger mig, yderligere underbygger mine argumenter.
Desuden var det på ingen måde ment som en fornærmelse, men en lille reminder om at nvidia nok ikke er så uprofessionelle at begå samme fejl to gange. Slet ikke af denne kaliber da.
Som du også kan se her (dette var igen kun rygter) kan der max leveres 75W per kabel, hvorfor endnu et var på tale
http://www.theinquirer.net/?article=22917

blaQen - ( #200505312354 )
Skrevet 31-05-2005 Kl. 23:54
Ja, jeg har læst citatet. Det kan godt være det bare er fordi mit engelsk er dårlig men jeg har forstået det sådan at de var sikre på at kortet faktisk trak 150 W som de jo annoncerede. Derefter simpel matematik for at vise os fordelingen af strøm til kortet.

Har du ikke et mere officielt link end the inquirer? det der nægter jeg at tro på. hvorfor skulle nvidia søge tilladelse til at bruge et hvis antal extern stik til deres kort?

Hvordan forstår du selv denne del af siden du selv linkede til? "We also heard that Nvidia asked PCI-Sig to let it use two power connectors for the card, each providing 75W of power. If the Sig agrees, it seems that Nvidia next generation card might end up drying 225W of power. It's simple maths, 75 W from PCIe motherboard connector, and two times 75 from a six pin power connector."
Hvis du sprøger mig er dette dybt latterligt. Desuden kunne jo bare bruge almindelig molex...
så, officiel link tak.

Men du har selvfølgelig ret i at hvis artiklen forsvinder bare sådan efter nogle dage/timer må der have været noget galt, og selvfølgelig vil det begrunde mistænkelighed imod deres nu forsvundet artikel.

Fjog - ( #200506012055 )
Skrevet 01-06-2005 Kl. 20:55
Nu stopper du sgu! Du kan SE på de billeder der er taget af kortet er der kun er ET molex-stik, så som jeg også skrev var dette kun rygter, men for at give bevis for at det max kan få 75W pr molex-stik! Og de skriver jo at [I]It's simple maths, 75 W from PCIe motherboard connector, and two times 75 from a six pin power connector[/I]
dvs, der er 75W fra PCIe stikket og 2x 75W i form af to molex-stik, helt penslet ud altså 75 pr. molexstik!
Her er endnu en kilde, se nederst [I]og boardet kommer derfor med 2 molex forbindelser for et teoretisk maksimumforbrug på 225w[/I], igen 75W + 2x75W (75W pr. molex-stik endnu engang) = 225W!
http://hardinfo.dk/show.asp?page=5680

blaQen - ( #200506012235 )
Skrevet 01-06-2005 Kl. 22:35
Undskyld, min tidligere post var ikke for at drille eller irritere dig. Jeg spurgte blot hvordan du forstod dette:
and two times 75 from a six pin power connector.
Men ok. tak for dit sidste link. jeg er nu en smule mere overbevist.

- ( #200506012251 )
Skrevet 01-06-2005 Kl. 22:51
Lad mig lige tække trække min sidste sætning tilbage.
hardinfo.dk skrev at jo om molex stik...
Stikket vi diskuterede tidligere er efter hvad jeg ved ikke helt det samme som molex. Så...?

blaQen - ( #200506012255 )
Skrevet 01-06-2005 Kl. 22:55
Anonym ovenover er mig.

Fjog - ( #200506012319 )
Skrevet 01-06-2005 Kl. 23:19
Molex-stikket og strømstikket vi har diskutteret er det samme jo. Kært barn har mange navne...
Du kan have ret i at citatet kan forståes som at der så vil komme 150W fra et stik, men dette er helt sikkert en typo da hele artiklen jo går ud på at nvidia skulle have bedt om muligheden for endnu et strømstik, altså 2 i det hele, og det giver jo så ikke mening at smide alle 150W gennem kun det ene (hvilket jo heller ikke kan lade sig gøre). Så de mener uden tvivl 150W ligelit fordelt på over to stik i den artikkel, hvilket ville resultere i et strøm forbrug på min. 150W og MAX 225W.

Fjog - ( #200506012321 )
Skrevet 01-06-2005 Kl. 23:21
Må lige tilføje at det kun var såfremt at artiklen havde været sandfærdig, men viste sig blot at være endnu mere fra deres rygtekanon. Men det skulle geren underbygge at der kun kan leveres 75W pr. molex/strømstik.

blaQen - ( #200506012340 )
Skrevet 01-06-2005 Kl. 23:40
nej? Den ene er 6 pin den anden er 4. Uanset hvad kan jeg ikke forstå hvorfor du vil kalde de to stik ens.

"og det giver jo så ikke mening at smide alle 150W gennem kun det ene (hvilket jo heller ikke kan lade sig gøre)."
Rettelse, du TROR ikke det kan lade sig gøre. Hvis du spørger mig giver hele artiklen slet ikke mening.

Fjog - ( #200506020015 )
Skrevet 02-06-2005 Kl. 00:15
Prøv nu lige og hør her, dem med 4-pins er til AGP-grafikkort, mens dem med 6 er til PCIe. Tjek det. Alle PCIe grafikkort kommer med en 6 pins indang til strømstikket, de findes ikke med 4! Det er også en del af det nye ved PCIe.
Tror der er noget du har blandet sammen, ellers taler vi meget forbi hinadnen her!
Men efter min mening giver det skam meget mening.

blaQen - ( #200506020031 )
Skrevet 02-06-2005 Kl. 00:31
"Prøv nu lige og hør her, dem med 4-pins er til AGP-grafikkort, mens dem med 6 er til PCIe. Tjek det. Alle PCIe grafikkort kommer med en 6 pins indang til strømstikket, de findes ikke med 4! Det er også en del af det nye ved PCIe."
Din pointe? Jeg kan stadig ikke se hvorfor de to stik skulle være ens.
Desuden er molex stik ikke lavet til agp grafikkort. Det er lavet til harddisk/cdrom drev osv.

Fjog - ( #200506020034 )
Skrevet 02-06-2005 Kl. 00:34
Ok her har du det sort på hvidt fra tomshardware for at gøre dig glad:

http://graphics.tomshardware.com/graphic/20040310/pcie-12.html

The PCI Express specification calls for 25W for x1 slots, although most x1 devices only require around 10W. Further, PCI Express specifies 10W for x1 devices, 25W for x1 - x8 slots, and 75W for x16 slots, with another 75W for PCI Express the supplementary cable

blaQen - ( #200506020049 )
Skrevet 02-06-2005 Kl. 00:49
hehe, ok mange tak, jeg er nu gladere og blevet en smule klogere.
Så kan vi vidst godt begynde at blive enige om at G70 vil ligge imellem 75 og 150 W :)

stev - ( #200506020251 )
Skrevet 02-06-2005 Kl. 02:51

Kimi Räikkonen - ( #200506021716 )
Skrevet 02-06-2005 Kl. 17:16
Puuh.....

Man får Voodoo 5500 flash backs når man ser det kort!!

GWiZ - ( #200506031902 )
Skrevet 03-06-2005 Kl. 19:02
Ifølge Gamespot, vil nVidia vise G70 frem den 21. Juni.

http://www.gamespot.com/news/2005/06/02/news_6126883.html

Uddrag:
"An invitation sent to Nvidia partners, analysts, and members of the press promises invitees an "evening of full-throttle entertainment" filled with "revolutionary technologies, hot 3D content, and exciting gaming action as we unveil our next-generation GPU.""

espeholt_jr - ( #200506050108 )
Skrevet 05-06-2005 Kl. 01:08
Ros:

synes faktisk din artikle langt hen af vejen er rigtig god, thumps up :) har dog et par ting ;)

"Jeg ville undre mig, hvis nVidia sprang direkte fra 130nm til 90nm (GeForce 6 serien var 130nm), så det er nok fornuftigt at G70 kommer som 110nm i første omgang. Det kan dog sagtens være, at nVidia bare har spredt 110nm rygtet, som et røgslør så det vil ramme ATi hårdere, når G70 kommer med 90nm."

&lt;- GeForce 6600 er 110 nm, skulle jeg helt sikkert mene :) den er også GeForce 6 jo :)

""430Mhz core / 1.2GHz 256MB GDDR3 memory"
Dette virker overraskende lavt, når man tænker på at GeForce 6800 Ultra er clocket til 425 MHz på chippen og har 256 MB 1,1 GHz GDDR3 RAM."

&lt;- der er meget andet der tæller jo.. pipelines, vertex osv. osv. som du egentlig også kommer ind på :)

MVH

Mandak - ( #200506050350 )
Skrevet 05-06-2005 Kl. 03:50
espeholt_jr:

Begge chips blive lavet på den samme fabrik (TSMC Taiwan Semiconductor Manufacturing Company Ltd), så det er ikke utænkeligt at de bægge kommer i 90nm teknilogi.

For at gå lidt i dybden bringes her et uddrag af deres presse meddelse fra d. 27 April.

"Hsinchu, Taiwan, R.O.C. -- April 27, 2005 -- Taiwan Semiconductor Manufacturing Company (TSE: 2330, NYSE: TSM), unveiled its newest semiconductor manufacturing process today at a Technology Symposium attended by over 400 of the industry’s leading IC companies. First wafers are expected in December 2005.

The new 65nm Nexsys Technology for SoC Design allows designers to build logic devices with double the density of the company’s industry leading 90nm technology. This massive integration – the equivalent of more than 750 billion transistors on a single 12-inch wafer – enables significant cost savings to market movers across the IC industry."

Kort sagt, det er de drenge ATI og nVidia leger med.

Man...

GWiZ - ( #200506051153 )
Skrevet 05-06-2005 Kl. 11:53
espeholt_jr: GeForce 6600 GT er jo heller ikke top-modellen. Jeg kunne sagtens forestille mig at GeForce 7600 bliver 90 nm, men jeg er ikke sikker på at topmodellen bliver det.
Mht. pipelines og frekvens: Selvfølgelig. Hastighedsmæssigt bliver kortet også markant hurtigere, hvis ovenstående holder stik. I den overvejelse så jeg kun på frekvens, og konstaterede at det ikke var specielt meget højere - dette betyder ikke at ydelsen ikke bliver meget højere, for det gør den! :-)


espeholt_jr - ( #200506051220 )
Skrevet 05-06-2005 Kl. 12:20
Mandak->Jeg mener også der er mulighed for 90nm... Jeg siger bare, at han siger at geforce 6 er 130nm hvilket jo ikke er rigtigt

GWiZ->Godt :)

Hobbes - ( #200506051829 )
Skrevet 05-06-2005 Kl. 18:29
Jeg må indrømme jeg er optimist - Jeg tror ikke på at Nvidia vil sende en ny generation på gaden, uden at lade den være markant hurtigere/vildere end forgængeren - det ville være dårlig karma ( PR ).

(90nm eller ej, tror jeg ikke er afgørende for performance alligevel)

Mandak - ( #200506060227 )
Skrevet 06-06-2005 Kl. 02:27
Hobbes:
Det er meget afgørende for performance og pris.
Igen et uddrag fra den samme pressemeddelelse. Det skal her bemærkes at skiftet fra 130nm til 90nm, vil være ca. det samme som det her omtalte 90nm til 65nm. Der vil dog være et øget energi tab ved 65nm frem for 90nm, da det isolerende lag bliver tyndere (der er samme problem ved 90nm vs. 130nm).
Men her uddraget:
"From a power and performance perspective, the 65nm Nexsys technology leads the industry with a 50 percent speed gain (TSMC’s 65nm General Purpose process versus its 90nm General Purpose process); and a 20 percent standby power reduction. High-speed 65nm versions are expected to lead the industry in power/performance tradeoffs."
http://www.tsmc.com/tsmcdotcom/PRListingNewsAction.do#

Samtidig bliver antallet af chips på wafer'en fordoblet, så produktions prisen falder.

espeholt_jr:

I følge Anandtech var GeForce 6800 Ultra 130nm da den kom: "We know that NVIDIA uses a 130nm IBM process on 300mm wafers." Den hedder også NV40, GT modellen er NV45. Og de har en anden fremstillings proces end GeForce 6600/6600GT (NV43), som er en 110nm process.
Balladen består i at GWiZ skriver GeForce 6, som betegner hele serien fra 6600 til 6800 Ultra (jeg går ud fra at det er det du driller ham med :-)
http://www.anandtech.com/video/showdoc.aspx?i=2023&p=3

Men se en komplet oversigt her:
http://anandtech.com/video/showdoc.aspx?i=2195&p=9

Man...

Gripen90 - ( #200506061531 )
Skrevet 06-06-2005 Kl. 15:31
Haha, hvis de virkelig skal bruge så mange ampere så må PSU producenterne godt nok få travlt da det er langt de færreste PSU der er over 25ampere. Det lader til vi skal have 2 PSUer, 1 til CPU,Ram og div andre komponenter og så 1 udelukkende til GFX.

Yderligere synes jeg kortet ser utrolig farligt langt ud ! det er jo på længde med 3Dfx Voodoo5 6000, og det er langt de færreste kabinetter der kan rumme GFX af den størrelse hvis ikke man skal bruge vinkelsliberen til at gøre plads med.

Kimi Räikkonen - ( #200506061702 )
Skrevet 06-06-2005 Kl. 17:02
Mandak, nu står der jo ikke noget om nVidia i den artikel. Jeg tvivler på at GeForce 7 overhovedet vil leve længe nok til at nå ned på 65nm.

Husk på, at om et års tid er der ingen af os, der gider eje det langsomme gamle skrammel! :-)

Mandak - ( #200506070045 )
Skrevet 07-06-2005 Kl. 00:45
Kimi Räikkonen:
Det er en pressemeddelelse fra TSMC, der fortæller at de forventer at afskibe 65mn Wafers om 6 måneder (december). Med det vil jeg fortælle at fabrikken hvor NV70 og R520 skal fabrikeres, betragter 90nm som "gammel" teknologi.
For at forstå betydningen, skal vi huske at nVidia tidligere har haft problemer ved at vælge en "for ny" fremstillings teknologi. Det kom til at koste dem dyrt, derfor er de måske lidt konservative med deres valg af teknologi. Det som jeg så henviser til er at 90nm er "gammel" teknologi hos TSMC, så risikoen for en gentagelse af leverings problemet ikke er sansynligt. Derfor mener jeg at NV70 kommer som 90nm.

Og om 6 - 12 måneder ville jeg da gerne have et 65nm NV70 eller R520 :-)

Man...

Kimi Räikkonen - ( #200506070846 )
Skrevet 07-06-2005 Kl. 08:46
Mandak, din røver!

Måske har du fat i noget. :-D

Gandalf - ( #200506072257 )
Skrevet 07-06-2005 Kl. 22:57
Ville gerne lige have 100% styr på en ting. Når vi siger at grafikkort bliver produceret ved "90nm", hvad betyder det helt præcist? Hvad er 90nm? laseren? transistorene?

Mandak - ( #200506080243 )
Skrevet 08-06-2005 Kl. 02:43
Gandalf for fa... du kan stille spørgsmål :-)

I virkeligheden hedder det 90nm node teknologi og svaret er ikke så simpelt. Det tætteste jeg kan komme på et simpelt svar er, Gate'en er det man måler efter.

Men eksempelvis er Gate'en i Intels 90nm node teknologi faktisk kun 50nm bred. Og derfor burde den hedde 50nm node, det gør den bare ikke. For udmålingen har også noget med hastighed på transistoren at gøre og så er det det bliver kompliceret.

Det første du skal gøre er at klikke på dette link: ftp://download.intel.com/research/silicon/S04_Silicon_Nanotechnology_100%25.pdf
Gå til side 6, her er der et billede af en 90nm node transistor (bagefter kan du kikke hele pdf dukomentet igennem og så ved du en del om hvad der kommer fra Intel af teknologier frem til 2020).
Derefter klikker du på det næste link, læs i andet afsnit. Her står definitionen på 90 nm node teknologien: http://www.eetimes.com/showArticle.jhtml?articleID=57300064
Læs hele dokumemtet hvis du er super pjattet med prosessore fremstillet ved nano teknologi.
jeg håber det giver dig 100% styr på det.

:-)

Man...

Kowalski - ( #200506081228 )
Skrevet 08-06-2005 Kl. 12:28
Ok. Jeg er lige begyndt at læse noget af den pdf fil. De ved for meget. Det er sgu sygt!

GWiZ - ( #200506081425 )
Skrevet 08-06-2005 Kl. 14:25
Pdf'en er spændende læsning, selvom hjernen gør ondt på halvejen. :-)

Gandalf - ( #200506081435 )
Skrevet 08-06-2005 Kl. 14:35
Jeg er interesseret nok i alt det der, men kan ikke lige "overskue" at læse det igennem, hvis du ved hvad jeg mener :)

Så det må vente...

Har læst de afsnit du refererede til jeg skulle læse, og blev da lidt klogere, men jeg tror simpelthen man skal have noget viden om opbygningen og funktionen af en transistorer for rigtigt at forstå særlig meget af det.. Altså jeg kan da ikke helt aflede hvad en gate er?

Anyway, det kan også have noget at gøre med at jeg har læst som ind i helvede i min læseferie for at få nogle ordentlig karakterer til prøverne/eksamen, så har nok slet ikke lyst til at sætte mig ind i noget som helst liiige nu =)

Mandak - ( #200506081636 )
Skrevet 08-06-2005 Kl. 16:36
Gandalf:

Prøve dette link, det forklarer transistorn på en simpel måde (det er lavet til skole brug, så din hjerne skulle helst ikke lide overlast :-) : http://www.intel.com/education/transworks/index.htm

Man...

PS. jeg husker de dage med læseferie, u-ha u-ha.

Gandalf - ( #200506091502 )
Skrevet 09-06-2005 Kl. 15:02
Ja ok, lige præcis det der vidste jeg godt, det er faktisk lige det punkt jeg er nået til i forståelsen af computerhardware i det mindste, og så ved jeg ikke mere :)

Det var da altid noget at se hvad gate'en så var.. Hvad er det nu de tre ting der hedder på dansk?

Mandak - ( #200506091616 )
Skrevet 09-06-2005 Kl. 16:16
Jeg må indrømme at jeg ikke kan huske de danske betegnelser og min tekniske ordbog hjælper ikke stort. Men her er et bud (hvis der er en der ligger inde med de korrekt betegnelser (hvis dette ikke er), må vedkommende gerne poste dem:

the source = kilden
the gate = lukker
the drain = afløb

Man...

PS. Gandalf, har du tidligere postet på Hardwaretidende?

Gandalf - ( #200506091627 )
Skrevet 09-06-2005 Kl. 16:27
Ah har lige fundet det i min egen 1.g fysikbog :)

Emitter, basis og kollektor..

mon så ikke at:
source = emitter
gate = basis
drain = kollektor

?

kQleskabsindianer - ( #200506092059 )
Skrevet 09-06-2005 Kl. 20:59
# Gandalf
Base emitter og collector er så de 3 ben på en transistor :) Base = En given strøm (ikke spænding) der løber gennem en transistor, hvis størrelse er bestemt af basis-emitterspændingen som starter fra ´0,6-0,7V.

Gate = base yes gandalf. Om Gaten er åben eller lukket bestemmes af spændingen mellem base og emitterspændingen - dette er konceptet bag næsten al nutidens hardware. At være i stand til at åbne (1) og lukke (0) for en spænding - som vi (alle?) ved opererer en cpu udfra binære talkoder (det binære talsystem består af 0 og 1) Og disse har transistoren den egenskab at kunne generere

Gandalf - ( #200506092356 )
Skrevet 09-06-2005 Kl. 23:56
Men hvordan man nogensinde har kunne gå så hurtigt fra at sidde og bikse med et åbne og lukke sådan et par transistorer til rent faktisk at kunne få den til at samarbejde, jeg mener lave programmer, lave en struktur i det med så mange af dem, så man kan danne bogstaver på skærmen...

Der har virkelig eksisteret nogle genier her i det sidste halve århundrede...

Mandak - ( #200506100042 )
Skrevet 10-06-2005 Kl. 00:42
Det har nu taget sin tid at nå her til, den første transistor blev lavet i 1958 (hvis jeg husker rigtigt).

"Der har virkelig eksisteret nogle genier her i det sidste halve århundrede..."

Det sagde de sikkert også med ilden og hjulet osv. Og gamle grækere u-ha u-ha, dem tør jeg slet ikke tænke på.

Man...

kQleskabsindianer - ( #200506100112 )
Skrevet 10-06-2005 Kl. 01:12
# Mandak
1947 for at være helt præcis :) Den første blev lavet af 2 stykker guldfolie gjort fast på en germanium krystal.

Det du tænker på ved 1958 er sikkert at de i 1958 fandt ud af at ætse transistorer ned i krystal. Om det allerede var silicium dengang ved jeg ikke.

Gandalf - ( #200506101122 )
Skrevet 10-06-2005 Kl. 11:22
Synes da godt nok heller ikke 50 år er langt tid for at være komme til her hvor vi er i dag. Ville du nogensinde selv kunne overskue at få nogle små transistorer til at arbejde sammen i et netværk så man rent faktisk kunne bruge det til noget? Jeg mener, der er LANGT vej fra at udvikle dem og fremstille dem til rent faktisk at få noget der ligner programmer! Jeg ville i hvert fald ikke have nogen som helst idé om hvor jeg ville starte. Prøv at tænk over det. Skide små kontakter der kan være tændte eller slukkede, bliver pludeselig i stand til at fremkalde billeder på en skærm og så er udviklingen bare racet afsted derfra..

Det er helt sikkert at der også har eksisteret genier før i tiden, men jeg er altså en meget mere imponeret over vores tids genier indenfor computerteknologien. Grækerne var helt sikkert nogle af tidens bedste matematikere, men nogengange kan man godt blive facineret så meget af fortidens bedrifter, at man helt glemmer HVOR meget mere avanceret nutidens er.. Vi bruger f.eks. meget mere avanceret matematik og mange flere steder i dag end i det gamle Grækenland :)

GWiZ - ( #200506101752 )
Skrevet 10-06-2005 Kl. 17:52
The Inquirer har nu set et dokument fra nVidia, og afslører følgende:

GeForce 7800 GTX
430MHz Core
700 MHz Ram (="1400" DDR)
24 Pixelpipelines
256 MB RAM
2 DVI udgange

Scorer mere end 7800 marks i 3dMark05.

http://www.theinquirer.net/?article=23874

Mandak - ( #200506141558 )
Skrevet 14-06-2005 Kl. 15:58
Hardspell.com har lagt et 3DMark05 screenshot på nettet for G7800GTX, det viser en score på 7703. Men lad os nu se om ikke det er spin.
Det er nok et af de mest ventede release på grafikkort, som er lige om hjørnet. Og hvis rygtet taler sandt at ATI har 8 pipelines de kan åbne hvis de føler sig presset, er der stor mulighed for at nVidia holder lidt igen med deres ydelse. Vi har før set nVidia drastisk øge ydelsen på deres kort ved et driver realese og hvis de kan lokke ATI ud af busken med falske ydelser...

Det virker også lidt underligt at G70 kun yder 7703 i 3DMark05, ATI's R520 skulle yde 10000. Det er 30% mere ydelse.

http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.hardspell.com%2fnews%2fshowcont.asp%3fnews_id%3d14305

Man...

Mandak - ( #200506152215 )
Skrevet 15-06-2005 Kl. 22:15
INQ har opdateret deres spec. for G7800GTX og det ser ikke for lovende ud. De kalder den for NV47, meeen mon ikke det skal tages med et gran salt.

http://www.theinquirer.net/?article=23951

Man...

Stockholm - ( #200506161016 )
Skrevet 16-06-2005 Kl. 10:16
nVidia har overfor Cnet bekræftet at deltagerne i deres LAN Party d. 21./6. vil kunne købe GF7800 kort.

http://news.com.com/2100-1043_3-5748337.html?tag=fd_nbs_ptechp

Something....?? - ( #200506221510 )
Skrevet 22-06-2005 Kl. 15:10
http://www.midtdata.dk/asp/index.asp?varernr=N78GTXVT2D256E&goto=productinfo&mainfunc=link

http://www.msi.com.tw/program/products/vga/vga/pro_vga_detail.php?UID=685

Something....?? - ( #200506221511 )
Skrevet 22-06-2005 Kl. 15:11
http://www.midtdata.dk/asp/index.aspvarernr=N78GTXVT2D256E&goto=productinfo&mainfunc=link

kQleskabsindianer - ( #200506221537 )
Skrevet 22-06-2005 Kl. 15:37

Something....?? - ( #200506221634 )
Skrevet 22-06-2005 Kl. 16:34
jeg kommer ind på forsiden med det link du har givet kQleskabsindianer

Mandak - ( #200506221652 )
Skrevet 22-06-2005 Kl. 16:52
LOL, 5k og det kun med 256MB RAM.

Man...

Mandak - ( #200506221706 )
Skrevet 22-06-2005 Kl. 17:06

Crosseyed - ( #200506221741 )
Skrevet 22-06-2005 Kl. 17:41
Til dem der ikke har nok i et "almindeligt" 7800 GTX så fås turbo udgaven her:

http://www.mindstormsystems.dk/shop/default.asp?setlng=1&productid=542

Carsten - ( #200506221745 )
Skrevet 22-06-2005 Kl. 17:45
nu behøver vi da ikke spekulere i danske priser mere

Gainward / GeForce 7800 G70 Golden Sample 5195kr for turbo udgaven hold da helt ferie godt man kan vente lidt ¨år man har et 6800gt ser jeg ingen grund til at opdatere.


kQleskabsindianer - ( #200506221950 )
Skrevet 22-06-2005 Kl. 19:50
En lille demo af Unreal Engine 3, kørende på - selvfølgelig - et nVidia Geforce 7800

http://media.pc.ign.com/articles/628/628005/vids_1.html

Carsten - ( #200506230101 )
Skrevet 23-06-2005 Kl. 01:01
fra http://www.anandtech.com/video/showdoc.aspx?i=2451&p=21

Overall, we consider this a successful launch. Aside from the performance of the 7800 GTX, we can infer that the PS3's RSX will be even more powerful than the G70. As RSX will be a 90nm part and will still have some time to develop further, the design will likely be even easier to program, faster, and full of more new features

Så er det spændende at se hvad for andre kort nvidia lancerer om et lille års tid. Men koncollerne er ihvertfald ved at blive voksne og rart med en rigtig launch istedet for det kun er på papir. Gab vide om ATI kan følge med på den ;)

Mandak - ( #200506230358 )
Skrevet 23-06-2005 Kl. 03:58
Indianer:

Det ville være meget fedt, hvis du ikke linkede til en side hvor man møder

login:

Password:

Man...

kQleskabsindianer - ( #200506230911 )
Skrevet 23-06-2005 Kl. 09:11
# Mandak

Gør jeg også, vælg "download" der hvor den lille boks med udråbstegnet IKKE er..

Tjek nu lige options før du bitcher ;)

Mick - ( #200506231000 )
Skrevet 23-06-2005 Kl. 10:00
Jeg synes AnandTechog THG tests har store mangler.

Der nævnes INTET om fx. om køleløsningen. Den er jo singleslot og da 7800 GTX bruger ca. det samme som 6800 Ultra så kunne man forestille sig at der skal flyttes MEGET luft. Hvilket normalt er ensbetydende med STØJ.

Alle de tekniske oplysninger er mindre interessante end fx. hvor meget kortet støjer og hvor godt det yder. Det er sjusk at man har så travlt at man ikke medtager dette (for mange) yderst vigtige punkt.

Hvad som afgør de flestes valg af grafikkort i sidste ende er ting som performance, støj og pris. Og så hvor fornuftigt et køb det er set i lyset af at ATI snart (forhåbentlig) lancerer R520 som jeg mener vil være MEGET hurtigere end 7800 GTX. Time will tell.

7800 GT er en evolution, ikke en revolution (undtagen for NVIDIA naturligvis *G*).

Det er næsten som da ATI kom med X800 - det var også mere evolution end revolution. Blot er springet væsentligt mindre for 6800->7800 end fra 9800->X800.

Nu håber jeg blot på at ATI ikke har leveringsproblemer denne gang når X900 skal lanceres!

Mick - ( #200506231748 )
Skrevet 23-06-2005 Kl. 17:48
Det lysner i øst - iflg. dette:

http://techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=1

så forbruger 7800 GTX mindre strøm end 6800 Ultra (det er dog også rigeligt nok...).

Hvad som er mere vigtigt var denne kommentar:

http://techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=26

"I'd like to give you some sound level readings for the 7800 GTX's cooler, but truth be told, that's almost impossible to measure for a couple of reasons. First, there is the clatter of the Asus A8N-SLI's super-annoying chipset cooling fan combined with the noise from the CPU cooler. Then there's the fact that the 7800 GTX cooler is very, very quiet, especially at idle, and our sound level meter can't measure sounds below a certain threshold. Subjectively, the 7800 GTX is quieter than both the GeForce 6800 Ultra and the Radeon X850 XT PE, without question."

Og hvis ikke betyder det "lave" effektforbrug nok at den der der må komme en Zalman-low-noise-løsning fælt hurtigt *GGG*.

kQleskabsindianer - ( #200506242200 )
Skrevet 24-06-2005 Kl. 22:00
Gad vide om mit kølehoved kan passe på sådan en fætter o_Ô har ikke kunnet finde nogen tests af vand på kortet endnu :( Men, regner stærkt med at skulle have et POV 7800gtx inden for den nærmeste fremtid, så må der rodes med noget gaffa :)

Mads - ( #200506251619 )
Skrevet 25-06-2005 Kl. 16:19
mht til støj er det beskrevet som støjsvagt i testen på www.hardware-test.dk - selv om køleren ser noget hidsig ud..

Skriv kommentar
Vi har desværre måttet deaktivere vores gæstebrugerfunktionalitet midlertidigt pga. spam.
Vi håber at få det igang igen så snart vi får lavet en bedre løsning.
Indtil videre er man nødt til at registrere sig som bruger, for at lave kommentarer.

Tryk her for at registrere dig som bruger.

Tryk her for at vende tilbage til forsiden.
Valid HTML 4.01 Valid CSS 3
Copyright © Edb-Tidende 2004-2016
Du skal være logget ind for at kunne deltage i afstemningerne.
Klik her for at komme til login siden.