Miten grafiikkaprosessori toimii? Mobiililaitteiston koulutusohjelma: grafiikkaprosessorit. Mistä löytää tietoa näytönohjaimen teknisistä ominaisuuksista

Integroitu näytönohjain on tärkeä rooli sekä pelaajille että vaatimattomille käyttäjille.

Pelien, elokuvien, Internet-videoiden ja kuvien laatu riippuu siitä.

Toimintaperiaate

GPU on integroitu emolevy tietokone - tältä sisäänrakennettu grafiikka näyttää.

Yleensä he käyttävät sitä poistamaan näytönohjaimen asentamisen tarpeen -.

Tämä tekniikka auttaa vähentämään valmiin tuotteen kustannuksia. Lisäksi tällaisten prosessorien kompaktin ja alhaisen virrankulutuksen vuoksi ne asennetaan usein kannettaviin tietokoneisiin ja vähän virtaa kuluttaviin pöytätietokoneisiin.

Integroidut grafiikkaprosessorit ovat siis täyttäneet tämän markkinaraon niin paljon, että 90 prosentissa USA:n kauppojen hyllyillä olevista kannettavista tietokoneista on tällainen prosessori.

Integroitu grafiikka käyttää tavallisen näytönohjaimen sijaan usein itse tietokoneen RAM-muistia apuvälineenä.

Totta, tämä ratkaisu rajoittaa jonkin verran laitteen suorituskykyä. Kuitenkin itse tietokone ja näytönohjain käyttävät samaa muistiväylää.

Joten tämä "naapurusto" vaikuttaa tehtävien suorittamiseen, varsinkin kun työskentelet monimutkaisen grafiikan kanssa ja pelin aikana.

Erilaisia

Integroidulla grafiikalla on kolme ryhmää:

  1. Jaetun muistin grafiikka - laite, joka perustuu jaettuun ohjaukseen pääprosessorin kanssa RAM. Tämä vähentää merkittävästi kustannuksia, parantaa energiansäästöjärjestelmää, mutta heikentää suorituskykyä. Näin ollen niille, jotka työskentelevät monimutkaiset ohjelmat, tämän tyyppiset integroidut GPU:t eivät todennäköisesti sovellu.
  2. Erillinen grafiikka - videosiru ja yksi tai kaksi videomuistimoduulia juotetaan päälle emolevy. Tämän tekniikan ansiosta kuvanlaatu paranee merkittävästi, ja sen kanssa on myös mahdollista työskennellä 3D-grafiikka Kanssa parhaat tulokset. Totta, joudut maksamaan tästä paljon, ja jos etsit kaikin puolin tehokasta prosessoria, kustannukset voivat olla uskomattoman korkeat. Lisäksi sähkölaskusi kasvaa hieman - erillisten GPU:iden virrankulutus on tavallista korkeampi.
  3. Hybrididiskreettigrafiikka - kahden edellisen tyypin yhdistelmä, joka varmisti väylän luomisen PCI Express. Näin ollen pääsy muistiin tapahtuu sekä juotetun videomuistin että RAM-muistin kautta. Tällä ratkaisulla valmistajat halusivat luoda kompromissiratkaisun, mutta se ei silti poista puutteita.

Valmistajat

Pääsääntöisesti suuret yritykset - , ja - harjoittavat integroitujen näytönohjainten valmistusta ja kehitystä, mutta myös monet pienet yritykset ovat mukana tällä alalla.

Tätä ei ole vaikea tehdä. Etsi ensisijainen näyttö tai aloitusnäyttö ensin. Jos et näe jotain sellaista, etsi Onboard, PCI, AGP tai PCI-E (kaikki riippuu emolevylle asennetuista väylistä).

Valitsemalla esimerkiksi PCI-E:n otat sen käyttöön PCI-Express näytönohjain ja poista sisäänrakennettu integroitu käytöstä.

Siten integroidun näytönohjaimen käyttöön ottamiseksi sinun on löydettävä sopivat parametrit BIOSista. Usein aktivointiprosessi on automaattinen.

Poista käytöstä

On parempi poistaa se käytöstä BIOSissa. Tämä on yksinkertaisin ja vaatimattomin vaihtoehto, joka sopii melkein kaikille tietokoneille. Ainoat poikkeukset ovat jotkut kannettavat tietokoneet.

Jos käytät työpöytää, etsi BIOSista Peripherals tai Integrated Peripherals.

Kannettavissa tietokoneissa toiminnon nimi on erilainen, eikä sama kaikkialla. Joten etsi vain jotain grafiikkaan liittyvää. Tarvittavat asetukset voidaan sijoittaa esimerkiksi Lisäasetukset- ja Määritys-osioon.

Myös vammautus tapahtuu eri tavoin. Joskus riittää, kun napsautat "Disabled" ja asetat PCI-E-näytönohjaimen ensimmäiseksi luettelossa.

Jos olet kannettavan tietokoneen käyttäjä, älä huolestu, jos et löydä sopivaa vaihtoehtoa; sinulla ei välttämättä ole sellaista toimintoa. Kaikille muille laitteille säännöt ovat yksinkertaiset - riippumatta siitä, miltä BIOS näyttää, täyttö on sama.

Jos sinulla on kaksi näytönohjainta ja ne näkyvät molemmat laitehallinnassa, asia on melko yksinkertainen: napsauta yhtä niistä oikea puoli hiirellä ja valitse "poista käytöstä". Muista kuitenkin, että näyttö voi tummua. Tämä tapahtuu mitä todennäköisimmin.

Tämä on kuitenkin myös ratkaistava ongelma. Riittää, kun käynnistät tietokoneen tai ohjelmiston uudelleen.

Tee kaikki myöhemmät asetukset siihen. Jos tämä menetelmä ei toimi, peruuta toiminnot käyttämällä turva tila. Voit myös turvautua edelliseen menetelmään - BIOSin kautta.

Kaksi ohjelmaa - NVIDIA Control Center ja Catalyst Control Center - määrittävät tietyn näytönohjaimen käytön.

Ne ovat vaatimattomimpia kahteen muuhun tapaan verrattuna - näyttö ei todennäköisesti sammu, etkä myöskään vahingossa sotke asetuksia BIOSin kautta.

NVIDIA:n kaikki asetukset ovat 3D-osiossa.

Voit valita haluamasi videosovittimen kaikille käyttöjärjestelmä ja tietyille ohjelmille ja peleille.

Catalyst-ohjelmistossa identtinen toiminto sijaitsee "Virta"-vaihtoehdossa "Switchable Graphics" -alikohdassa.

Joten vaihtaminen GPU: n välillä on helppoa.

Syödä erilaisia ​​menetelmiä, erityisesti sekä ohjelmien että BIOSin kautta.. Yhden tai toisen integroidun näytönohjaimen kytkemiseen päälle tai pois päältä voi liittyä joitain vikoja, jotka liittyvät pääasiassa kuvaan.

Se voi sammua tai yksinkertaisesti vääristyä. Mikään ei saa vaikuttaa itse tietokoneen tiedostoihin, ellet napsauttanut jotain BIOSissa.

Johtopäätös

Tämän seurauksena integroidut näytönohjaimet ovat kysyttyjä alhaisten kustannustensa ja kompaktinsa vuoksi.

Sinun on maksettava tästä itse tietokoneen suoritustasolla.

Joissakin tapauksissa integroitu grafiikka on yksinkertaisesti välttämätöntä - erilliset prosessorit ovat ihanteellisia kolmiulotteisten kuvien työskentelyyn.

Lisäksi alan johtajia ovat Intel, AMD ja Nvidia. Jokainen niistä tarjoaa omat näytönohjaimet, prosessorit ja muut komponentit.

Uusin suosittuja malleja- Intel HD Graphics 530 ja AMD A10-7850K. Ne ovat melko toimivia, mutta niissä on joitain puutteita. Tämä koskee erityisesti valmiin tuotteen tehoa, suorituskykyä ja kustannuksia.

Voit ottaa käyttöön tai poistaa käytöstä sisäänrakennetulla ytimellä varustetun näytönohjaimen joko itse BIOSin, apuohjelmien ja eri ohjelmien kautta, mutta tietokone itse voi tehdä tämän helposti puolestasi. Kaikki riippuu siitä, mikä näytönohjain on kytketty itse näyttöön.

Sai kyvyn seurata grafiikkasuoritusyksikön (GPU) suorituskykytietoja. Käyttäjät voivat analysoida Tämä informaatio ymmärtää, miten näytönohjainten resursseja käytetään, joita käytetään yhä enemmän tietojenkäsittelyssä.

Tämä tarkoittaa, että kaikki tietokoneeseen asennetut GPU:t näkyvät Suorituskyky-välilehdellä. Lisäksi Prosessit-välilehdessä voit nähdä, mitkä prosessit käyttävät GPU:ta, ja GPU-muistin käyttötiedot sijaitsevat Tiedot-välilehdessä.

Kuinka tarkistaa, onko GPU-suorituskyvyn katseluohjelma tuettu

Vaikka Task Managerilla ei ole erityisiä vaatimuksia suorittimen, muistin, levyn tai Verkkosovittimet, GPU-tilanne näyttää hieman erilaiselta.

Windows 10:ssä GPU-tiedot ovat käytettävissä Tehtävienhallinnassa vain käytettäessä Windows Display Driver Model (WDDM) -arkkitehtuuria. WDDM on arkkitehtuuri grafiikkaohjaimet näytönohjaimelle, joka mahdollistaa työpöydän ja sovellusten näyttämisen näytöllä.

WDDM tarjoaa grafiikkaytimen, joka sisältää ajastimen (VidSch) ja videomuistin hallinnan (VidMm). Nämä moduulit ovat vastuussa päätösten tekemisestä GPU-resursseja käytettäessä.

Tehtävienhallinta saa tiedot GPU-resurssien käytöstä suoraan grafiikkaytimen ajastajalta ja videomuistin hallinnasta. Lisäksi tämä pätee sekä integroitujen että dedikoitujen GPU:iden tapauksessa. Jotta tämä toiminto toimisi oikein, tarvitaan WDDM-versio 2.0 tai uudempi.

Voit tarkistaa, tukevatko laitteesi GPU-tietojen katselua Task Managerissa, seuraavasti:

  1. Käytä yhdistelmää Windowsin avaimet+ R avataksesi Suorita-komennon.
  2. Anna komento dxdiag.exe avaa DirectX-diagnostiikkatyökalu ja paina Enter.
  3. Siirry "Näyttö" -välilehteen.
  4. Katso oikeanpuoleisessa osiossa "Ajurit" kuljettajan mallin arvoa.

Jos käytät WDDM 2.0:aa tai uudempaa, Task Manager näyttää GPU:n käyttötiedot Suorituskyky-välilehdellä.

Kuinka seurata GPU:n suorituskykyä Task Managerin avulla

Voit seurata GPU:n suorituskykytietoja Task Managerin avulla napsauttamalla oikealla painikkeella hiirellä tehtäväpalkissa ja valitse "Task Manager". Jos kompakti näkymä on aktiivinen, napsauta Lisätietoja -painiketta ja siirry sitten Suorituskyky-välilehteen.

Neuvoja: varten äkkilähtö Tehtävienhallinnassa voit käyttää pikanäppäintä Ctrl + Shift + Esc

Suorituskyky-välilehti

Jos tietokoneesi tukee WDDM-versiota 2.0 tai uudempaa, välilehtien vasemmassa ruudussa Esitys GPU tulee näkyviin. Jos järjestelmään on asennettu useita GPU:ita, jokainen GPU näytetään numerolla, joka vastaa sen fyysistä sijaintia, kuten GPU 0, GPU 1, GPU 2 jne.

Windows 10 tukee useita GPU-pareja käyttämällä Nvidia SLI:tä ja AMD Crossfire. Kun järjestelmässä havaitaan jokin näistä kokoonpanoista, Suorituskyky-välilehti osoittaa jokaisen linkin numerolla (esimerkiksi linkki 0, linkki 1 jne.). Käyttäjä voi nähdä ja tarkistaa jokaisen paketin GPU:n.

Tietyltä GPU-sivulta löydät kootut suorituskykytiedot, jotka on yleensä jaettu kahteen osaan.

Osio sisältää ajankohtaista tietoa itse GPU:n moottoreista, ei sen yksittäisistä ytimistä.

Tehtävienhallinta näyttää oletusarvoisesti neljä kysytyintä GPU-moottoria, jotka sisältävät oletuksena 3D-, Rip-, Video-dekoodaus- ja videoprosessointitoiminnot, mutta voit muuttaa näitä näkymiä napsauttamalla nimeä ja valitsemalla toisen moottorin.

Käyttäjä voi jopa muuttaa kaavionäkymän yhdeksi moottoriksi napsauttamalla hiiren kakkospainikkeella missä tahansa osiossa ja valitsemalla "Vaihda kuvaaja > Yksi moottori" -vaihtoehdon.

Moottorikaavioiden alla on datalohko videomuistin kulutuksesta.

Tehtävienhallinta näyttää kahden tyyppisen videomuistin: jaetun ja omistetun.

Dedikoitu muisti on muisti, jota käytetään vain näytönohjain. Tyypillisesti tämä on VRAM-muistin määrä erillisillä korteilla tai sen prosessorin käytettävissä olevan muistin määrä, jolle tietokone on määritetty nimenomaan varattavaksi.

Oikeassa alakulmassa näkyy parametri "Hardware reserved memory" - tämä määrä muistia on varattu videoohjaimelle.

Tämän osion varatun muistin määrä edustaa prosessien aktiivisesti käyttämän muistin määrää, ja tämän osion jaetun muistin määrä edustaa grafiikkatarpeisiin kulutetun järjestelmämuistin määrää.

Lisäksi vasemmassa paneelissa GPU-nimen alla näet nykyisen GPU-resurssien käytön prosentteina. On tärkeää huomata, että Task Manager käyttää kiireisimmän moottorin prosenttiosuutta kuvaamaan kokonaiskäyttöä.

Nähdäksesi suorituskykytiedot ajan mittaan, suorita grafiikkasuoritinintensiivinen sovellus, kuten videopeli.

Prosessit-välilehti

Voit myös seurata GPU:n suorituskykyä välilehdellä Prosessit. Tästä osiosta löydät yleisen yhteenvedon tietystä prosessista.

GPU-sarake näyttää aktiivisimman moottorin käytön, joka edustaa tietyn prosessin GPU-resurssien kokonaiskäyttöä.

Jos useat moottorit ilmoittavat 100 prosentin käyttöasteen, voi kuitenkin syntyä sekaannusta. Lisäsarake "GPU Core" sisältää yksityiskohtaisia ​​tietoja tämän prosessin lataamasta moottorista.

Prosessit-välilehden sarakeotsikko näyttää kaikkien järjestelmässä käytettävissä olevien GPU:iden resurssien kokonaiskulutuksen.

Jos et näe näitä sarakkeita, napsauta hiiren kakkospainikkeella mitä tahansa sarakkeen otsikkoa ja valitse asianmukaiset valintaruudut.

Tiedot-välilehti

Oletusarvoisesti välilehti ei näytä GPU-tietoja, mutta voit aina napsauttaa hiiren kakkospainikkeella sarakkeen otsikkoa, valita "Valitse sarakkeet" -vaihtoehdon ja ottaa käyttöön seuraavat vaihtoehdot:

  • GPU-ydin
  • Erillinen GPU-muisti
  • Jaettu GPU-muisti

Muistivälilehdet näyttävät tietyn prosessin käyttämän kokonaismuistin ja vastaavasti varatun muistin. GPU- ja GPU Core -sarakkeet näyttävät samat tiedot kuin Prosessit-välilehdessä.

Kun käytät Tiedot-välilehteä, sinun on huomioitava, että kunkin prosessin lisätty muistin käyttö voi olla suurempi kuin käytettävissä olevan muistin kokonaismäärä, koska Yhteinen muisti lasketaan useita kertoja. Nämä tiedot ovat hyödyllisiä prosessin muistin käytön ymmärtämisessä, mutta sinun tulee käyttää Suorituskyky-välilehteä nähdäksesi yksityiskohtaisempia grafiikan käyttötietoja.

Johtopäätös

Microsoft on sitoutunut tarjoamaan käyttäjille tarkemman grafiikan suorituskyvyn työkalun kuin kolmannen osapuolen sovelluksia. Huomaa, että tämän toiminnon kehittäminen on käynnissä ja parannukset ovat mahdollisia lähitulevaisuudessa.

Hei hyvät käyttäjät ja tietokonelaitteiston ystävät. Tänään pohditaan, mitä on integroitu grafiikka prosessorissa, miksi sitä ylipäätään tarvitaan ja onko tällainen ratkaisu vaihtoehto erillisille eli ulkoisille näytönohjaimille.

Jos ajatellaan teknisen suunnittelun näkökulmasta, niin Intelin ja AMD:n tuotteissa laajasti käyttämä sisäänrakennettu grafiikkaydin ei ole näytönohjain sinänsä. Tämä on videosiru, joka integroitiin CPU-arkkitehtuuriin suorittamaan erillisen kiihdytin perustehtävät. Mutta ymmärretään kaikki yksityiskohtaisemmin.

Tästä artikkelista opit:

Ulkonäön historia

Yritykset alkoivat ensimmäisen kerran ottaa grafiikkaa omiin siruihinsa 2000-luvun puolivälissä. Intel aloitti kehityksen kuitenkin Intel GMA:lla tätä tekniikkaa osoitti itsensä melko huonosti, joten se ei sovellu videopeleihin. Tämän seurauksena kuuluisa HD Graphics -tekniikka syntyy (on Tämä hetki linjan uusin edustaja – HD-grafiikka 630 kahdeksannen sukupolven siruissa Kahvijärvi). Videoydin debytoi Westmere-arkkitehtuurissa osana Arrandale-mobiilisiruja ja Clarkdalen työpöytäsiruja (2010).

AMD meni eri tavalla. Ensin yritys osti ATI Electronicsin, kerran hienon näytönohjainvalmistajan. Sitten hän alkoi perehtyä AMD:n omaan Fusion-teknologiaan ja loi omia APU:ita - prosessori sisäänrakennetulla videoytimellä (Accelerated Processing Unit). Ensimmäisen sukupolven sirut debytoivat osana Liano-arkkitehtuuria ja sitten Trinityä. No, Radeon r7 -sarjan grafiikka on ollut mukana keskiluokan kannettavissa tietokoneissa ja netbookeissa pitkään.

Sulautettujen ratkaisujen edut peleissä

Niin. Miksi tarvitset integroitua korttia ja mitä eroja sillä on erillisestä?

Yritämme tehdä vertailun kunkin kannan selityksellä ja tehdä kaikesta mahdollisimman perusteltua. Aloitetaan ehkä sellaisesta ominaisuudesta kuin suorituskyky. Harkitsemme ja vertaamme Intelin (HD 630 näytönohjaimen taajuudella 350–1200 MHz) ja AMD:n (Vega 11 taajuudella 300–1300 MHz) uusimpia ratkaisuja sekä näiden ratkaisujen tarjoamia etuja.
Aloitetaan järjestelmän kustannuksista. Integroidun näytönohjaimen avulla voit säästää paljon ostaessasi erillisen ratkaisun, jopa 150 dollaria, mikä on erittäin tärkeää luotaessa edullisin PC toimistokäyttöön.

AMD-näytönohjaimen taajuus on huomattavasti korkeampi, ja punaisten sovittimen suorituskyky on huomattavasti korkeampi, mikä osoittaa seuraavat indikaattorit samoissa peleissä:

Peli asetukset Intel AMD
PUBG FullHD, matala 8-14 fps 26-36 fps
GTA V FullHD, medium 15-22 fps 55–66 fps
Wolfenstein II HD, matala 9-14 fps 85–99 fps
Fortnite FullHD, medium 9-13 fps 36-45 fps
Rakettiliiga FullHD, korkea 15-27 fps 35-53 fps
CS:GO FullHD, maksimi 32-63 fps 105-164 fps
Overwatch FullHD, medium 15-22 fps 50-60 fps

Kuten näette, Vega 11 - paras valinta edullisille "pelijärjestelmille", koska sovittimen suorituskyky saavuttaa joissain tapauksissa täysimittaisen GeForce GT 1050:n tason. Ja useimmissa verkkotaisteluissa se toimii hyvin.

Toistaiseksi tämä grafiikka tulee vain AMD Ryzen 2400G -prosessorin mukana, mutta se on ehdottomasti katsomisen arvoinen.

Vaihtoehto toimisto- ja kotikäyttöön

Mitä vaatimuksia asetat useimmiten tietokoneellesi? Jos jätämme pelit pois, saamme seuraavat parametrit:

  • HD-laatuisten elokuvien ja videoiden katselu Youtubessa (FullHD ja harvoin 4K);
  • työskennellä selaimen kanssa;
  • kuunnella musiikkia;
  • kommunikointi ystävien tai työtovereiden kanssa pikaviestien avulla;
  • Sovellus kehitys;
  • toimistotehtävät ( Microsoft Office ja vastaavat ohjelmat).

Kaikki nämä kohdat toimivat täydellisesti sisäänrakennetun grafiikkaytimen kanssa jopa FullHD-tarkkuudella.
Ainoa vivahde, joka on otettava huomioon, on videolähtöjen tuki emolevy, johon aiot asentaa prosessorin. Selvitä tämä kohta etukäteen välttääksesi ongelmia tulevaisuudessa.

Integroidun grafiikan haitat

Koska olemme käsitelleet edut, meidän on myös selvitettävä ratkaisun haitat.

  • Tällaisen yrityksen suurin haitta on tuottavuus. Kyllä, voit puhtaalla omallatunnolla pelata enemmän tai vähemmän moderneja leluja matalalla ja korkeat asetukset grafiikan ystävät eivät kuitenkaan varmasti pidä tästä ideasta. No, jos työskentelet grafiikan kanssa ammattimaisesti (käsittely, renderöinti, videoeditointi, jälkituotanto) ja jopa 2-3 näytöllä, integroitu videotyyppi ei todellakaan sovi sinulle.

  • Kohta numero 2: oman nopean muistin puute (nykyaikaisissa korteissa tämä on GDDR5, GDDR5X ja HBM). Muodollisesti videosiru voi käyttää vähintään 64 Gt muistia, mutta mistä se kaikki tulee? Aivan oikein, leikkaussalista. Tämä tarkoittaa, että järjestelmä on rakennettava etukäteen siten, että RAM-muistia riittää sekä työ- että graafisiin tehtäviin. Muista, että nykyaikaisten DDR4-moduulien nopeus on paljon pienempi kuin GDDR5, ja siksi tietojen käsittelyyn kuluu enemmän aikaa.
  • Seuraava haittapuoli on lämmöntuotanto. Prosessin aikana ilmaantuu omien ytimiensa lisäksi toinen, joka teoriassa ei lämpene yhtään vähemmän. Voit jäähdyttää kaiken tämän loiston koteloitulla (täydellisellä) levysoittimella, mutta ole varautunut ajoittain alentaviin taajuuksiin erityisen monimutkaisissa laskelmissa. Tehokkaamman jäähdyttimen ostaminen ratkaisee ongelman.
  • No, viimeinen vivahde on mahdottomuus päivittää videota vaihtamatta prosessoria. Toisin sanoen, sisäänrakennetun videoytimen parantamiseksi sinun on kirjaimellisesti ostettava uusi prosessori. Kyseenalainen hyöty, eikö? Tässä tapauksessa on helpompi ostaa erillinen kiihdytin hetken kuluttua. Valmistajat, kuten AMD ja nVidia, tarjoavat erinomaisia ​​ratkaisuja jokaiseen makuun.

Tulokset

Integroitu grafiikka on loistava vaihtoehto kolmessa tapauksessa:

  • tarvitset väliaikaisen näytönohjaimen, koska sinulla ei ole tarpeeksi rahaa ulkoiseen;
  • järjestelmä suunniteltiin alun perin budjetin ulkopuoliseksi;
  • olet luomassa kodin multimediatyöasemaa (HTPC), jossa pääpaino on sisäänrakennetussa ytimessä.

Toivomme, että päässäsi on yksi ongelma vähemmän, ja nyt tiedät, miksi valmistajat luovat APU:taan.

Seuraavissa artikkeleissa puhumme sellaisista termeistä kuin virtualisointi ja paljon muuta. Seuraa pysyäksesi ajan tasalla kaikista uusimmista laitteistoihin liittyvistä aiheista.

Tiedämme kaikki, että näytönohjaimella ja prosessorilla on hieman erilaiset tehtävät, mutta tiedätkö kuinka ne eroavat toisistaan ​​sisäisessä rakenteessa? Kuten CPU prosessori) ja GPU (englanniksi - grafiikan prosessointiyksikkö) ovat suorittimia, ja niillä on paljon yhteistä, mutta ne on suunniteltu suorittamaan erilaisia ​​tehtäviä. Saat lisätietoja tästä artikkelista.

prosessori

Prosessorin päätehtävä, puhuminen yksinkertaisilla sanoilla, on komentoketjun suorittaminen mahdollisimman lyhyessä ajassa. Prosessori on suunniteltu suorittamaan useita tällaisia ​​ketjuja samanaikaisesti tai jakamaan yksi käskyvirta useiksi ja niiden suorittamisen jälkeen yhdistämään ne takaisin yhdeksi, oikeassa järjestyksessä. Jokainen säikeen käsky riippuu sitä seuraavista, minkä vuoksi CPU:ssa on niin vähän suoritusyksiköitä ja koko painopiste on suoritusnopeuteen ja seisokkien vähentämiseen, mikä saavutetaan välimuistin ja liukuhihnan avulla.

GPU

GPU:n päätehtävä on 3D-grafiikan ja visuaaliset tehosteet, joten kaikki on hieman yksinkertaisempaa: sen on vastaanotettava monikulmiot syötteenä ja suoritettuaan tarvittavat matemaattiset ja loogisia operaatioita, lähtöpikselin koordinaatit. Pohjimmiltaan GPU:n työ rajoittuu siihen, että se toimii suurella määrällä toisistaan ​​riippumattomia tehtäviä; siksi se sisältää suuren määrän muistia, mutta ei yhtä nopeasti kuin CPU:ssa, ja valtavan määrän suoritusyksiköitä: Nykyaikaisia ​​GPU:ita on 2048 tai enemmän, kun taas CPU:n tapaan niiden lukumäärä voi olla 48, mutta useimmiten niiden lukumäärä on 2-8.

Tärkeimmät erot

Prosessori eroaa grafiikkasuorittimesta ensisijaisesti tavassa, jolla se käyttää muistia. GPU:ssa se on johdonmukaista ja helposti ennustettavaa - jos tekstuuritekseli luetaan muistista, niin hetken kuluttua tulee naapuritekselien vuoro. Tilanne on samanlainen tallennuksen kanssa - kehyspuskuriin kirjoitetaan pikseli, jonka vieressä oleva pikseli tallennetaan muutaman kellojakson jälkeen. Lisäksi GPU, toisin kuin yleiskäyttöiset prosessorit, ei yksinkertaisesti tarvitse välimuistia iso koko, ja tekstuurit vaativat vain 128–256 kilotavua. Lisäksi näytönohjaimet käyttävät nopeampaa muistia, ja sen seurauksena grafiikkasuorittimessa on monta kertaa enemmän käytettävissä läpijuoksu, mikä on myös erittäin tärkeää rinnakkaisissa laskelmissa, joissa käytetään suuria tietovirtoja.

Monisäikeen tuessa on monia eroja: CPU suorittaa 1 2 säiettä laskelmia prosessorin ydintä kohden, ja GPU voi tukea useita tuhansia säikeitä jokaiselle moniprosessorille, joita sirulla on useita! Ja jos vaihtaminen säikeestä toiseen maksaa CPU:lle satoja kellojaksoja, GPU vaihtaa useita säikeitä yhdessä kellojaksossa.

Suorittimessa suurin osa sirualueesta on käskypuskureiden, laitteistohaaraennusteiden ja valtavien määrien välimuistin varassa, kun taas GPU:ssa suurin osa alueesta on suoritusyksiköiden käytössä. Yllä kuvattu laite on esitetty kaavamaisesti alla:

Ero laskentanopeudessa

Jos CPU on eräänlainen "pomo", joka tekee päätökset ohjelman ohjeiden mukaisesti, niin GPU on "työntekijä", joka suorittaa valtavan määrän samanlaisia ​​laskelmia. Osoittautuu, että jos syötät itsenäisiä yksinkertaisia ​​matemaattisia tehtäviä GPU: lle, se selviytyy paljon nopeammin kuin keskusprosessori. Bitcoin-kaivostyöntekijät käyttävät tätä eroa menestyksekkäästi.

Bitcoinin louhinta

Kaivostoiminnan ydin on, että eri puolilla maapalloa sijaitsevat tietokoneet ratkaisevat matemaattisia ongelmia, joiden seurauksena syntyy bitcoineja. Kaikki bitcoin-siirrot ketjussa välitetään kaivostyöntekijöille, joiden tehtävänä on valita miljoonien yhdistelmien joukosta yksi hash, joka vastaa kaikkia uusia tapahtumia, sekä salainen avain, joka varmistaa, että kaivostyöntekijä saa 25 bitcoinin palkkion kerrallaan. Koska laskentanopeus riippuu suoraan suoritusyksiköiden lukumäärästä, käy ilmi, että GPU:t sopivat paljon paremmin suoritukseen tämän tyyppistä tehtäviä kuin CPU. Miten enemmän määrää suoritetut laskelmat, sitä suurempi mahdollisuus saada bitcoineja. Se meni jopa niin pitkälle, että videokorteista rakennettiin kokonaisia ​​maatiloja.

Prosessorit ja grafiikkasuorittimet ovat hyvin samankaltaisia; ne molemmat on valmistettu sadoista miljoonista transistoreista ja voivat käsitellä tuhansia toimintoja sekunnissa. Mutta mitä eroa on näiden kahden kotitietokoneen tärkeän osan välillä?

Tässä artikkelissa yritämme selittää hyvin yksinkertaisella ja helposti saatavilla olevalla tavalla, mikä ero on suorittimen ja GPU:n välillä. Mutta ensin meidän on tarkasteltava näitä kahta prosessoria erikseen.

CPU:ta (Central Processing Unit tai Central Processing Unit) kutsutaan usein tietokoneen "aivoiksi". Keskusprosessorin sisällä on noin miljoona transistoria, joiden avulla suoritetaan erilaisia ​​laskelmia. Kotitietokoneissa on tavallisesti prosessoreita, joissa on 1-4 ydintä ja kellotaajuudeltaan noin 1 GHz - 4 GHz.

Prosessori on tehokas, koska se pystyy tekemään kaiken. Tietokone pystyy suorittamaan tehtävän, koska prosessori pystyy suorittamaan sen. Ohjelmoijat ovat onnistuneet saavuttamaan tämän nykyaikaisten keskusyksiköiden laajojen ohjesarjojen ja valtavien toimintoluetteloiden ansiosta.

Mikä on GPU?

GPU (Graphics Processing Unit tai Graphics Processing Unit) on erikoistunut mikroprosessorityyppi, joka on optimoitu erittäin spesifiseen tietojenkäsittelyyn ja grafiikan näyttöön. GPU toimii pienemmällä kellotaajuudella kuin CPU, mutta siinä on paljon enemmän prosessointiytimiä.

Voit myös sanoa, että GPU on erikoistunut CPU, joka on tehty tiettyyn tarkoitukseen - videon renderöintiin. Renderöinnin aikana GPU suorittaa yksinkertaisia ​​matemaattisia laskelmia valtavan määrän kertoja. GPU:ssa on tuhansia ytimiä, jotka toimivat samanaikaisesti. Vaikka jokainen GPU-ydin on hitaampi kuin CPU-ydin, se on silti tehokkaampi suorittamaan yksinkertaisia ​​matemaattisia laskutoimituksia, joita tarvitaan grafiikan näyttämiseen. Tämä massiivinen rinnakkaisuus tekee GPU:sta kykenevän renderöimään nykyaikaisten pelien vaatimaa monimutkaista 3D-grafiikkaa.

Ero CPU:n ja GPU:n välillä

Grafiikkasuoritin voi tehdä vain murto-osan niistä asioista, joita CPU voi tehdä, mutta se tekee sen uskomattomilla nopeuksilla. Grafiikkasuoritin käyttää satoja ytimiä kiireellisten laskelmien tekemiseen tuhansista pikseleistä samalla kun se tuottaa monimutkaista 3D-grafiikkaa. Mutta saavuttaa suuret nopeudet GPU:n on suoritettava monotonisia toimintoja.

Otetaan esimerkiksi Nvidia GTX 1080. Tässä näytönohjaimessa on 2560 shader-ydintä. Näiden ytimien ansiosta Nvidia GTX 1080 voi suorittaa 2 560 käskyä tai toimintoa yhdellä kellojaksolla. Jos haluat tehdä kuvasta 1 % kirkkaamman, GPU pystyy käsittelemään sen ilman suurempia vaikeuksia. Mutta quad keskeinen Intel prosessori Core i5 pystyy suorittamaan vain 4 käskyä kellojaksoa kohden.

Prosessorit ovat kuitenkin joustavampia kuin GPU:t. Keskusyksiköissä on suurempi käskysarja, jotta ne voivat suorittaa enemmän laaja valikoima toimintoja. Myös CPU:t toimivat korkeammalla maksimilla kellonopeudet ja heillä on kyky ohjata tietokoneen komponenttien tuloa ja lähtöä. Esimerkiksi keskusyksikkö voidaan integroida virtuaalinen muisti, joka on välttämätöntä nykyaikaisen käyttöjärjestelmän käyttämiseksi. Tämä on juuri se, mitä GPU ei voi tehdä.

GPU-laskenta

Vaikka grafiikkasuorittimet on suunniteltu hahmontamista varten, ne pystyvät enemmän. Grafiikkakäsittely on vain eräänlainen toistuva rinnakkaislaskenta. Muut tehtävät, kuten Bitcoinin louhinta ja salasanojen murtaminen, perustuvat samanlaisiin massiivisiin tietosarjoihin ja yksinkertaisiin matemaattisiin laskelmiin. Tästä syystä jotkut käyttäjät käyttävät näytönohjainkortteja ei-graafisiin toimintoihin. Tätä ilmiötä kutsutaan GPU Computation tai GPU computing.

johtopäätöksiä

Tässä artikkelissa vertailimme CPU:ta ja GPU:ta. Luulen, että kaikille on käynyt selväksi, että GPU:illa ja prosessoreilla on samanlaiset tavoitteet, mutta ne on optimoitu erilaisiin laskelmiin. Kirjoita mielipiteesi kommentteihin, yritän vastata.