Waarom is de nieuwe grafische processor van Intel zo belangrijk?

Inhoudsopgave:

Waarom is de nieuwe grafische processor van Intel zo belangrijk?
Waarom is de nieuwe grafische processor van Intel zo belangrijk?
Anonim

Belangrijkste afhaalrestaurants

  • GPU's zijn als bussen: langzamer dan sportwagens, maar veel beter in het parallel schakelen van veel getallen.
  • GPU's worden gebruikt in machine learning, medicijnen, beeldverwerking en games.
  • Intel's Iris Xe Max is ontworpen om laptops krachtiger te maken voor makers en AI.
Image
Image

Intel's nieuwe Iris Xe Max Graphics Processor Unit verschijnt nu in laptops, en in alle opzichten is het een groot probleem. Maar wat is een GPU en waarom is het belangrijk? Spoiler: het gaat niet om games, of zelfs graphics.

De CPU in uw computer, degene die het dagelijkse werk doet, is duur en zeer gespecialiseerd. Een GPU daarentegen is echt heel goed in wiskunde. In het bijzonder kunnen ze grote getallen vermenigvuldigen en kunnen ze vele, vele bewerkingen parallel uitvoeren. Dit maakt ze goed voor het genereren van complexe 3D-afbeeldingen, maar ze worden voor veel meer gebruikt.

"GPU's zijn geweldig voor big data, machine learning en beeldverwerking", vertelde 3D-animator David Rivera aan Lifewire via instant message. "Ik heb veel collega's die het in de geneeskunde gebruiken om MRI-resultaten te krijgen."

Big Math, Big Pictures

Alles dat veel ingewikkelde wiskunde vereist, is perfect om naar de GPU te verplaatsen.

"Grafische afbeeldingen zijn meestal erg krachtig omdat het berekenen van 3D-video-dingen erg complex is", vertelde de in Barcelona gevestigde computeringenieur Miquel Bonastre aan Lifewire via instant message. Maar al snel realiseerden computerkenners zich dat deze rekenmachines in gebruik konden worden genomen voor allerlei rekenintensieve taken.

"Nu worden er ook supercomputingclusters gemaakt met GPU's. Ze worden gebruikt voor wetenschappelijke berekeningen, engineering, enz. ", zegt Bonastre. Een ander voordeel van de GPU is dat deze eenvoudig op te schalen is. Het is gebouwd om identieke bewerkingen parallel uit te voeren, dus het toevoegen van meer chips (of gewoon meer kernen aan het chipontwerp, waardoor het groter wordt) maakt alles sneller.

Een GPU is ook geweldig voor het verwerken van foto's. Adobe's Lightroom-fotobewerkingssuite kan bijvoorbeeld werk overdragen aan de grafische processor van uw Mac of pc om "aanzienlijke snelheidsverbeteringen te bieden op schermen met hoge resolutie", waaronder 4K- en 5K-monitoren.

"CPU's zijn geoptimaliseerd voor latentie: om een taak zo snel mogelijk af te ronden", schrijft AI-consultant Ygor Rebouças Serpa. "GPU's zijn geoptimaliseerd voor doorvoer: ze zijn traag, maar ze werken op grote hoeveelheden gegevens tegelijk." Serpa vergelijkt een CPU met een sportwagen en een GPU met een bus. De bus is een stuk langzamer, maar kan veel meer mensen verplaatsen.

Hoe zit het met uw telefoon?

De GPU in je telefoon wordt gebruikt om het scherm met superhoge resolutie aan te sturen en om de grafische weergave uit te voeren. Daarom wordt de telefoon heet als je een game speelt - de GPU treedt in werking en je telefoon heeft geen ventilator om hem af te koelen.

Op de iPhone wordt de GPU gebruikt voor beeldherkenning, het leren van natuurlijke talen en bewegingsanalyse. Dat wil zeggen, het verwerkt afbeeldingen en video terwijl u ze opneemt, en meer.

GPU's zijn geweldig voor big data, machine learning en beeldverwerking.

Maar dat is niet alles. De recente iPhones en iPads van Apple bevatten een 'Neural Engine'. Dit is een grote chip, speciaal ontworpen om machine learning-taken uit te voeren. Het is geen GPU, maar het is een GPU-achtig concept, in die zin dat het in een mum van tijd moeilijke wiskundige problemen oplost. De nieuwste versie is, volgens Apple, "in staat om tot 11 biljoen bewerkingen per seconde uit te voeren."

Machineleren

Misschien is het grootste modewoord in de informatica momenteel 'machine learning'. Dit houdt in dat je de computer veel voorbeelden laat zien en de computer de overeenkomsten en verschillen laat uitzoeken. GPU's zijn hier perfect voor omdat ze meer voorbeelden per seconde kunnen bekijken. Zodra die training is voltooid, is de GPU echter niet langer nodig. Alle aangeleerde algoritmen kunnen sneller door de CPU worden uitgevoerd.

Laten we nu teruggaan naar Intel's nieuwe Iris Xe Max GPU. Dit is ontworpen voor gebruik in "dunne en lichte laptops en [om] een groeiend segment van makers aan te pakken die meer draagbaarheid willen", aldus Intel Vice President Roger Chandler in een verklaring. Dat wil zeggen, het is bedoeld om laptops met beperkte stroomvoorziening beter te maken voor het bewerken van video, foto's en andere GPU-intensieve activiteiten. Ja, inclusief AI.

De Iris Xe Max is ontworpen voor machine learning. Misschien zal zijn eerste taak zijn om te leren hoe zijn eigen naam uit te spreken.

Aanbevolen: