Egenskaper for grafikkort

Egenskaper for grafikkort

Det finnes en mengde ulike grafikkort. Nvidia har sine Geforce-kort, og AMD har sine ­Radeon-kort. Når det gjelder innebygde grafikkretser, har også prosessorprodusenten ­Intel store markedsandeler. De ulike skjermkortene og -kretsene skiller seg mer eller ­mindre fra hverandre. Det er ofte vanskelig å sammenligne to modeller, siden det er mange faktorer som spiller inn på hvor godt de presterer. Dette kapitlet kan gi litt hjelp på veien.

En spesifikasjon for et grafikkort kan se som følger.

Interne tilkoblinger

PCI

PCI-sokkelen (Peripheral Component Interconnect) brukes til blant annet nettverkskort, lydkort og TV-kort. Tidligere ble PCI brukt for grafikkort, men dagens datamaskiner krever kraftigere grafikkort enn PCI kan håndtere. På sikt kommer PCI til ikke å brukes mer for de nevnte tilleggskortene.

PCI Express

Den aktuelle tilkoblingstypen for grafikkort er nå PCI Express (PCIe). Den finnes i ulike varianter, der de vanligste er PCI Express x1 og PCI Express x16. Det er lett å se forskjell på dem, siden de har ulik lengde. PCI Express x16 er den eneste versjonen som brukes for grafikkort. PCI Express x1 er i stedet ment som en erstatning for PCI-tilkoblingen. Legg merke til at PCI Express ikke er samme tilkobling som PCI-X. Sistnevnte tilkobling brukes i forbindelse med servere og har dessverre et lignende navn.

De interne tilkoblingene på PCI Express-kortet er sinnrikt utformet. For eksempel kan et kort med en PCI Express x1-tilkobling (for eksempel en USB 2.0-kontroller) eller en PCI Express x4-tilkobling (for eksempel en USB 3.0-kontroller) settes i et PCI Express x16-spor. Det vil se litt rart ut, fordi store deler av sokkelen ikke brukes, men det fungerer likevel. Av forståelige grunner fungerer det ikke i motsatt retning. Det finnes imidlertid PCI Express-sokler som har åpen ende, og da kan det være mulig å sette i et større kort også.

PCI Express 2.0 og PCI Express 3.0

Den opprinnelige versjonen av PCI Express brukes relativt sjelden i dag. I skrivende stund er det PCI Express 2.0 og PCI Express 3.0 som gjelder. PCI Express 2.0 er dobbelt så raskt som gamle PCI Express og dessuten kompatibelt både forover og bakover. Tilkoblingene er de samme, slik at PCI Express-kort og sokler av ulike generasjoner fungerer med hverandre (det finnes unntak, men de er sjeldne).

PCI Express 3.0 øker hastigheten ytterligere. PCI Express 2.0 klarer ca 500 MB/s per kanal, og PCI Express 3.0 klarer ca 1 GB/s per kanal. Dette betyr at x16-portene som brukes for grafikkort, kan overføre data i opptil 32 GB/s med PCI Express 3.0 (totalt begge retninger)17.

Den nye PCI Express 3.0-teknologien er kompatibel både fremover og bakover. Dette betyr at et gammelt kort kan settes i en moderne sokkel, og da kan kortet kommunisere med sin maksimale hastighet. Hvis et moderne kort settes i en gammel sokkel, vil sokkelen redusere kortets hastigheten til hastigheten som sokkelen er laget for.

Grafikkprosessor

Grafikkprosessoren, også kjent som GPU-en, er den viktigste komponenten på grafikkortet. Det kan ha et ulikt antall kjerner og varierende hastighet (antall MHz), men akkurat som med vanlige prosessorer spiller også arkitekturen en stor rolle. En gammel grafikkprosessor med en høyere klokkefrekvens og flere kjerner er ofte dårligere enn en moderne grafikkprosessor med lavere klokkefrekvens og færre kjerner.

Nvidia kaller opp sine prosessorarkitekturer etter kjente fysikere. Sommeren 2015 var de fleste av Nvidias grafikkort basert på arkitekturen Maxwell. Maxwells forgjenger ble kalt Kepler, og Keplers forgjenger ble kalt Fermi. Nvidia navngir i sin tur grafikkprosessorene etter arkitekturen de er basert på. Grafikkprosessoren i Geforce GTX 760 kalles for GK104, der bokstaven K betyr at det er en Kepler-prosessor. Grafikkprosessoren i Geforce GTX 960 kalles for GM206, der bokstaven M på samme måte betyr at det er en Maxwell-prosessor. Dette gjør det svært enkelt å finne ut hvilken generasjon en grafikkprosessor tilhører.

Gårsdagens, dagens og morgendagens GPU-arkitekturer fra Nvidia.

Navnet på grafikkprosessoren (for eksempel GM206) brukes sjelden under markedsføring for grafikkort. Da brukes i stedet markedsnavnene på grafikkorten (akkurat som Intels nyeste prosessorer kalles for sjette generasjons Core-prosessorer i stedet for Skylake-prosessorer). Nvidia bruker i dag et tresifret navnesystem. Det første tallet (f.eks. tallet 9 i Geforce GTX 960) forteller hvilken generasjon grafikkortet tilhører. De to neste tallene (f.eks. 60 i Geforce GTX 960) angir grafikkortets relative ytelse i den ­aktuelle grafikkortgenerasjonen. Geforce GTX 970 har altså høyere ytelse enn Geforce GTX 960. Geforce GTX 970 blir igjen overgått av Geforce GTX 980. Denne tallsammenligningen kan bare gjøres i samme grafikkortgenerasjon (f.eks. i 700-serien eller 900-serien).

En ny grafikkortgenerasjon innebærer ikke automatisk at en ny prosessorarkitektur begynner å bli brukt. Nvidia har en lang historie med å fortsette med gamle prosessorarkitekturer selv om de bytter grafikkortgenerasjon. Nvidia smuglanserte også noen enklere Maxwell-baserte grafikkort i 700-serien (selv om ytelsesgrafikkortene i 700-serien er Kepler-baserte). Til tross for dette gir det første tallet i navnet på grafikkortet en tydelig indikasjon på hvilken generasjon grafikkortet tilhører.

De første bokstavene i navnet på grafikkortet indikerer også hvilket ytelsesnivå grafikkortet tilhører. Et kort på inngangsnivå har ingen innledende bokstaver i navnet, eller navnet begynner bare med bokstaven G. Grafikkort på mellomnivå har navn som begynner med GT eller GTS. De mest avanserte kortene har navn som begynner med GTX.

AMD har et litt annet navnesystem enn Nvidia. Grafikkortet deres heter for eksempel Radeon R7 370. Det første tallet etter bokstaven R angir hvilket ytelsessegment grafikkortet tilhører. Jo høyere tallet er, jo høyere ytelsessegment tilhører kortet (for eksempel er Radeon R7 bedre enn Radeon R5). Det første tallet i den tresifrede slutten refererer til generasjonen.  De to siste tallene i den tresifrede slutten refererer til den innbyrdes ytelsesordningen.

Varianter av samme grafikkort

I motsetning til de vanlige datamaskinprosessorene som selges direkte til forbruker under produsentenes egne varemerker (Intel og AMD), produserer Nvidia og AMD sjelden egne grafikkort. De produserer prosessorer og viser referansekort som grafikkortprodusentene senere bruker som et utgangspunkt. Kortene finnes derfor i mange ulike utforminger, der blant annet valg av minne, kjølere og utganger er forskjellig. Enkelte produsenter velger for eksempel å ha en ekstra HDMI-port og prioriterer bort Displayport-tilkoblingen. Andre bytter ut en liten kjøleribbe med vifte mot en stor kjøle­ribbe uten vifte.

Grafikkminnet

Minnet på grafikkortet er en annen ting som skiller mellom ulike grafikkortmodeller. Grafikkprosessorens jobb er å avlaste den vanlige prosessoren med det grafiske arbeidet. I stedet for å låne lagringsplass fra det vanlige RAM-minnet har den et eget minne. Dette minnet kan variere både i størrelse og hastighet.

Grafikkortprodusentene pleier å fremheve størrelsen på minnet. De fremhever derimot ikke hastigheten eller båndbredden på samme måte. Det er ganske viktig også å lete frem denne informasjonen for å vite hvor bra minnet egentlig er. En stort minne er selvsagt en fordel, fordi det kan lagre mer informasjon, men grafikkprosessoren må også kunne få rask tilgang til det.

Størrelse

Grafikkminnestørrelsen som brukes mest, varierer, men standardgrafikkort pleier i dag å ha rundt 2 GB, mens ytelsesmodellene har 4 GB eller mer. Informasjonen som lagres i minnet, kan for eksempel være teksturer som brukes i spill. Akkurat som med bilder er teksturer med høy oppløsning mer detaljert, men de tar også mer plass. Jo mer minne skjermkortet har, jo høyere oppløsning kan teksturene ha.

Hastighet

Akkurat som med RAM-pinner er det mulig å få forskjellige hastigheter i grafikkortets minne. Enkelte grafikkort selges i to versjoner med forskjellige minneteknologier. Den ene versjonen bruker for eksempel GDDR3, mens den andre versjonen bruker GDDR5. Sistnevnte er betydelig raskere, men dette er ikke lett å vite, siden produsentene ikke alltid rapporterer dette tydelig på sine grunnmodeller.

Vær oppmerksom på at GDDR3 ikke har noe å gjøre med DDR3-teknologien som brukes i de seneste RAM-minnemodulene. GDDR3 er en forbedret versjon av den eldre DDR2-teknologien.

I dag brukes GDDR5-minne til ytelsesgrafikkort. GDDR4-teknologien slo aldri helt gjennom, og mange produsenter valgte bare å hoppe over den og gå direkte fra GDDR3-minne til GDDR5-minne på sine ytelseskort.

Minnehastigheten skrives sjelden ut. I stedet pleier minnets såkalte data rate spesifiseres. Dette tilsvarer to ganger klokkefrekvensen, fordi moderne minnekretser bruker DDR-teknologien og kan derfor behandle informasjon to ganger i samme klokkesyklus. Du kan lese mer om dette i Datamaskin 5.2.

Bussbredden

Bussbredden som angis i antall bits, kan også være forskjellig. Tenk på grafikkprosessoren og grafikkminnet som to byer, som er forbundet med en motorvei. Antallet biler som kan kjøre mellom dem i løpet av et bestemt tidsrom, avhenger av to ting: delvis hvilken hastighet som gjelder, og delvis hvor mange filer veien har. To motorveier med samme fartsgrense kan håndtere et ulikt antall biler hvis den ene har flere filer enn den andre.

To filer og hastighet 110 km/t. Opptil 18 biler.
Fire filer og hastighet 110 km/t. Opptil 36 bilerr.

Bussbredden kan for eksempel være 256-biters (i lignelsen 256 filer), men her pleier de aller enkleste kortene å spare. Selv om to modeller har like raskt minne, kan den ene (teoretisk) håndtere dobbelt så mye informasjon på samme tid. Dette er fordi "motorveien" er dobbelt så bredt.

GPGPU

GPGPU står for General Purpose computing on Graphics Processing Units. Som navnet antyder, har dette å gjøre med å utførelse av tradisjonelle prosessoroppgaver med grafikkprosessoren. Nvidias CUDA (Compute Unified Device Architecture) er en slik teknologi. Den sørger for at grafikkortet kan behandle både vanlig programkode og grafikkode (i stedet for bare grafikk). Dette gjør det mulig for programmer som støtter CUDA, å jobbe raskere, fordi de kan bruke både den vanlige prosessoren og grafikk­prosessoren for sine beregninger. De to prosessortypene er gode på forskjellige ting, og ved å utnytte fordelene fra begge får programmene det beste fra begge verdener. For eksempel kan Adobe Creative Cloud (der blant annet Photoshop er inkludert) dra nytte av CUDA-funksjonene for å oppnå høyere ytelse. OpenCL (som ikke må forveksles med OpenGL) er et annet eksempel som brukes, blant annet av Apple i Mac OS X. Microsoft har også sin egen motpart kalt DirectCompute.

Et annet eksempel der GPGPU-teknologi kommer til stor nytte, er utvinning av den populære kryptovalutaen Bitcoin. Prosessen ved å utvinne Bitcoins passer perfekt for et grafikkort, med hjelp fra for eksempel OpenCL.

SLI og Crossfire

For enda høyere spillytelse kan enkelte hovedkort ha flere grafikkort installert. Denne teknologien kalles SLI eller Crossfire, alt etter om det er Nvidia eller AMD som står bak den. SLI-teknologien går ut på å la to eller flere identiske grafikkprosessorer jobbe sammen for å oppnå et enda mer detaljert bilde eller et hyppigere oppdatert bilde. Dette kan gjøres ved å la kortene oppdatere bildene om hverandre, eller la dem ta hånd om halvparten av bildet hver for seg. Dette gir en ytelsesforbedring, men den er ikke like stor som hvis de to grafikkortenes individuelle ytelse ville blitt lagt direkte sammen.

Strømforbruk

Et kraftig grafikkort er alltid en fordel i spillsammenheng. Tenk imidlertid også på at kraftige grafikkort trekker mye strøm. I takt med at strømforbruket øker, øker også varmeutviklingen. Resultatet er at kortet må ha effektiv kjøling. Tenk derfor først over hva datamaskinen skal brukes til, og velg deretter et passende grafikkort.

Dagens ytelsesgrafikkort trenger separat strømforsyning. Den vanligste kontakten for dette har seks eller åtte pinner fordelt på to rader. Hvis strømforsyningen ikke har denne tilkoblingen, er det mulig å bruke en adapter. På den annen side må effektene alltid sammenlignes før tilkobling. Hvis grafikkortet krever mer strøm enn strømforsyningen kan levere, kommer dette ikke til å fungere. Mange grafikkortprodusenter skriver ut en omtrentlig verdi for hvor kraftig strømforsyning en standarddatamaskin med det aktuelle grafikkortet trenger.

Adapter mellan vanliga 4-pin-kontakten och grafikkortsströmförsörjningen

Adapterens to 4-pinners Molex-kontakter bør kobles til to uttak som sitter på hver sin ledning fra strømforsyningen, i stedet for to kontakter som sitter på samme ledning.

Hvis to grafikkort skal strømforsynes (SLI eller Crossfire), bør strømforsyningen også ha støttet for dette. Det finnes flere PCI Express-power-kontakter for dette, og strømforsyningen er ofte merket med for eksempel Nvidia SLI Ready. Hvis ikke, må adapteren ovenfor brukes.

Sammenligne forskjellige grafikkortløsninger

Utviklingen i grafikkortsegmentet skjer i et rasende tempo. Denne boken kommer ikke med modellspesifikke anbefalinger når det gjelder valg av grafikkort, siden slike råd hadde blitt foreldet temmelig raskt. For å finne grafikkortet som er det mest formålstjenlige i dagens situasjon, anbefaler vi i stedet magasiner på nettet som kontinuerlig tester grafikkort og kunngjør nyheter (se nedenfor).

Sammenligningstest

Det maksimale antallet bilderuter per sekund som de ulike grafikkortene kan generere, en vanlig måte for å måle hvor bra grafikkortet er. Dette gjøres vanligvis ved å presse kortene til det ytterste i de nyeste spillene. De settes opp mot hverandre i forskjellige oppløsninger og med forskjellige bildebehandlingsteknikker for å se hvilket kort som klarer seg best generelt.

I mange tilfeller brukes også diverse testprogramvare som gir poeng til datasystemet, alt etter hvor bra det presterer i ulike sammenhenger.

Det finnes mange gode nettsteder som skriver om de nyeste grafikkortene, og hvordan de presterer i forhold til hverandre. Her er et utvalg:

Referanser

17. PCI-SIG (2011). PCI Express 3.0 Frequently Asked Questions. Artikkel hentet 18. juli 2011. www.pcisig.com/news_room/faqs/pcie3.0_faq/PCI_Express_3_0_FAQ_06092011.pdf

Sist endret: 2015-10-19