Reklame
Der er absolut ingen tvivl om, at konkurrencen mellem chipproducenter øges støt ikke kun for pc-processorer men også for mobile og andre formålsprocessorer. De store fem, der skal nævnes, er Intel, AMD, nVidia, Qualcomm og Apple. Alle disse virksomheder har forskellige beslutninger om, hvordan de udvikler deres processorer, hvilket vil gøre det interessant at se, hvis strategi giver dem mulighed for at stige til toppen. Min mening er dog enkel - vælg flere kerner frem for bedre kerner.
Inden jeg går ind i den nitty gritty, skal du bemærke ordlyden af artikeltitlen. Denne artikel handler om, hvorfor jeg tror på flere kerner vilje slå bedre kerner, hvilket indebærer, at dette vil ringe (igen, efter min mening) engang i fremtiden. Med hensyn til nu, med applikationer, der stadig overvejende er enkeltrådede og uvidende om flere kerner, er bedre kerner vinderne.
Baggrund
I årenes løb har vi set vores processorer ændre sig fra single-core lightweights hele vejen til otte-core monstre (eller 16-core, hvis du inkluderer servere). Det er klart, at det at have flere kerner er fordelagtigt og lader systemet arbejde på flere data på samme tid, end hvis systemet kun havde en enkelt kerne. Men på dette tidspunkt opstår et nyt spørgsmål - er der et punkt, hvor det er mere fordelagtigt at stoppe med at tilføje kerner og bare gøre dem bedre? Vil det at have 12 kerner i stedet for 8 gøre meget af en forskel? Vi kan måske føle, at det at have 4, 6 eller 8 kerner når det "gode nok" plateau, så langt som antallet af kerner går, men vi kunne gøre meget bedre.
Hvorfor flere kerner bliver bedre
Selvfølgelig at have flere kerner og bedre kerner er den bedste løsning, men hvad nu hvis du skal vælge? Hvis jeg var den, der valgte, ville jeg gå med flere kerner. Hvorfor? Inspirationen til mit svar ligger i, hvordan GPU'er fungerer.
GPU'er er pakket med kerner. Faktisk har nogle af de nyeste kort 2.048 kerner at prale af. De har den latterlige mængde kerner, fordi det giver dem mulighed for at arbejde på data på samme tid. Med flere kerner kan flere data knuses. Ja, GPU-kerner er kun gode til en type arbejde (hvorfor vi stadig bruger CPU'er, ikke GPU'er), men det samme koncept kan også anvendes til CPU'er.
Med flere kerner kan flere data knuses af CPU'en, og du får et hurtigt system, der glider gennem alt, hvad du kaster på det, forudsat at det er programmeret til at være opmærksom på alle dine kerner. Kort sagt, mange gode kerner vil til sidst være bedre end et par gode kerner.
De nuværende planer for store chipproducenter
Intel ser i øjeblikket ud til at opretholde en 4-core grænse (6 for deres ekstreme produktserie), men foretager fortsatte forbedringer af deres kerner. Imidlertid øger nVidia også sit antal kerner. Det samme er Qualcomm med sin Snapdragon-processor, skønt den er lidt langsommere, mens den også foretager tilpassede justeringer af lagerets ARM-design. Selv Apple vinder kerner med sin iPhone / iPad-processor, men i en meget langsom hastighed.
AMD forsøger også at gøre deres kerner bedre, men tidligere køreplaner har vist, at AMD stadig tilføjer kerner og ville tænde en 10-core processor til forbrugerne. AMD har allerede en 16-core behemoth til servere. Og ja, de er ikke nøjagtigt kerner, men det er sådan, de markedsføres, og det er, hvad jeg vil kalde dem. Der har været en hel del kontroverser om hele modultilgangen, som du kan læse om i kommentarer her 5 grunde til, at Intel skubbes mod væggen af AMDI årenes løb har Intel og AMD været i en ganske kamp for at få de bedste processorer ud. Til sidst kom et punkt, hvor du ikke hørte alt for meget om, hvad AMD var ved at ... Læs mere (pro) og her 5 grunde til, at AMD-processorer er dømt [Opinion]I slutningen af 1999 byggede jeg min første computer. Den brugte en AMD Athlon-processor klokket til 500 MHz, hvilket var hurtigt nok til at spille de fleste spil på det tidspunkt, og også en bedre værdi ... Læs mere (mod).
Hvilken strategi er bedst? Lige nu, hvem ved det? Måske har du en mening?
Konklusion
Hvad der virkelig vil ske i sidste ende, er noget, som vi kun kan finde ud af gennem tålmodighed. Efterhånden som mere software er ved at blive tilpasningsdygtig til adskillige kerner, vil fordelene i sidste ende skifte til de processorer, der som en hel komponent kan give det mest arbejde. Indtil da er vi bare nødt til at være tilfredse med det, der i øjeblikket fungerer bedst.
Hvad er din mening, flere kerner eller bedre kerner? Hvornår tror du, at vi endelig vil vide, hvilket valg der er bedre? Andre tanker? Fortæl os det i kommentarerne!
Billedkreditter: Olivander, Forrestal_PL, Aaronage
Danny er senior på University of North Texas, der nyder alle aspekter af open source-software og Linux.