Kirin 980: Huawei conferma il miglioramento della NPU

28 Agosto 2018 88

Kirin 980 verrà svelato nel corso dell'evento che Huawei terrà il prossimo 31 agosto a IFA 2018, ma ormai diversi dettagli del nuovo SoC top di gamma sono già stati svelati dai numerosi leak emersi durante le ultime settimane. Come ben sappiamo, la componente CPU sarà composta da 4 core Cortex-A76 a 2,8GHz e 4 core Cortex-A55 di frequenza ignota, assistiti da un GPU proprietaria progettata da Huawei - probabilmente basata su una Mali-G72 MP24 (il doppio dei core grafici di Kirin 970) - il tutto realizzato con il processo produttivo a 7nm di TSMC.

Oltre al miglioramento di questi aspetti chiave del SoC, Huawei sembra intenzionata a potenziare notevolmente le performance della NPU che sarà equipaggiata sul prossimo Kirin 980. Ricordiamo che la NPU - introdotta con Kirin 970 - è un motore neurale che si occupa di svolgere tutti i calcoli di machine learning, sgravando CPU e GPU da questo compito grazie alla possibilità di farli eseguire ad una Neural Processing Unit specializzata proprio per questo scopo.


Uno degli ultimi teaser condivisi su Weibo dal CEO di Huawei Yu Chengdong sembra confermare la presenza di una NPU di seconda generazione, che dovrebbe risultare estremamente più potente di quella inclusa sugli attuali top di gamma della casa cinese.

Questo significa che tutte le funzioni al momento svolte dalla cosiddetta AI - come la manutenzione periodica dello smartphone, il riconoscimento delle scene durante lo scatto, l'avanzato sistema di stabilizzazione video e molto altro ancora - potranno contare su una NPU più performante che consentirà di velocizzare tutti questi procedimenti e di eseguirli in modalità ancor più avanzate.

Ricordiamo che durante l'evento di IFA non verranno presentati gli smartphone equipaggiati con Kirin 980, bensì si parlerà esclusivamente degli aspetti tecnici inerenti al SoC, con alcune dimostrazioni riguardanti i suoi possibili campi d'applicazione. Vi lasciamo al teaser condiviso dalla società su Twitter:

Il top gamma 2018 più completo sul mercato? Samsung Galaxy S9 Plus, in offerta oggi da Clicksmart a 444 euro oppure da Media World a 579 euro.

88

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Federico

Inizio con il dire che questa moda dell'uso del termine IA è adatta al pubblico ma è impropia, quindi fra di noi dovremmo limitarne l'uso.
Supponi di avere lo scatto di un palloncino composto da due riprese separate: una (A) che per ogni pixel descrive solo la quantità di luce e l'altra (B) che stabilisce i colori presenti nella scena ma non è direttamente riconducibile alla prima perché a risoluzione sensibilmente più bassa.
All'atto pratico ad ogni pixel di B corrispondono circa due pixel di A.
Ora analizziamo la scena nel punto della ripresa B nella zona cartesiana (100, 100)..(102,102)
Come faccio ad assegnare il valore di crominanza corretto ai punti di coordinate (101,100), (100,101), (101,101)... e così via per l'intera immagine?
È impossibile, perché l'informazione cromatica di cui dispongo per il punto (100, 100) abbraccia anche gli altri tre.
L'unica cosa che posso fare è tentare un approccio statistico considerando il valore di crominanza delle coordinate successive in base all'algoritmo di interpolazione selezionato.

Federico

Ripeto Danny... non sono un esperto di reti neurali e quindi non azzardo ipotesi sul processo.
La differenza grossa, ma vista al di sopra del terraglio implementativo" sta nel fatto che nel caso dell'interpolazione la funzione di trasferimento che descrive il "dovrebbe essere" la sceglie l'utente o lo sviluppatore impostando il metodo di interpolazione (quadratica, lineare etc etc) ed in genere vale per la scena intera; nel caso di algoritmi basati su reti neurali (IA è improprio) la scelta è guidata dalla macchina stessa e dipende dalle forme presenti nei vari punti del fotogramma.

Non è possibile creare un algoritmo diretto che consenta di aggiungere informazioni ad un insieme A ricavandole da un insieme B totalmente eterogeneo.
Potresti farlo se i due insiemi avessero caratteristiche almeno prossime, ma nel caso del Mate i due insiemi hanno in comune una sola cosa: le forme descritte.

"valutazione personale" -> valutazione che tu non ritieni quindi essere figlia di semplici algoritmi che scindono le informazioni dei due sensori e poi le mettono insieme?

Federico

Mi ci sono scervellato, ma sarebbe più appropriato rivolgere il quesito ad un esperto di reti neurali.
Si tratta di un problema di complessità incredibile
Per me che esperto non lo sono mi pare che l'unica possibilità sia quella di passare per una interpretazione della realtà, che consentirebbe di assegnare il colore corretto che "dovrebbe avere" ciascuna area per la quale le informazioni sono carenti.
Sta di fatto che confrontando due stessi scatti HiRes a colori, uno in modalità interpolata e l'altro ottenuto tramite la combinazione dei due sensori ci si accorge che nei crop spunti il primo presenta i difetti che ci si aspetterebbe di trovare a seguito dell'interpolazione (errori e scalettature) mentre il secondo è realmente alla risoluzione del sensore monocromatico, come se la macchina avesse ridisegnato alla risoluzione corretta l'intera scena colorandola in base ad una valutazione personale.

Naturalmente l'affidarsi agli algoritmi sticastici può portare ad errori clanorosi, ben visibili nelle fotografie in B/N che per loro natura mettono in risalto ogni imperfezione. Per questa ragione quando fotografo in B/N (ossia quasi sempre) tengo la AI spenta.

L'unica possibilità è la via stocastica -> e come agisce sulle fotocamere?

Federico

Domani posto un paio di fotogrammi su Uncino allo scopo di mettere in risalto la grande differenza fra il banale upscaling della modalità interpolata e l'approccio basato su rete neurale
Naturalmente esiste la possibilità di giungere ad una soluzione stocastica senza rete neurale, ma solo ad un elevatissimo costo computazionale e quindi energetico.

Federico

Qual è l'altro terminale che a partire da una immagine di sola luminanza ad elevata risoluzione ed una di crominanza a risoluzione molto più bassa genera una immagine a colori di risoluzione pari a quella di luminanza senza far ricorso all'interpolazione?
Pensa alla funzione di trasferimento e ti renderai conto che il problema non ammette soluzione algoritmica diretta.
L'unica possibilità è la via stocastica.

Dipende più dall'hardware che dal software. Per dire, la migliore dual CAM è quella del Sony XZ2 Premium che ha un processore dedicato allo scopo.
Per quanto riguarda i parametri di scatto è come sopra, Sony lo fa da sempre. Se riconosce che il telefono è sul cavalletto mantiene l'esposizione più lunga, se vede la scena in movimento il contrario e alza gli ISO ecc. Cose normali, in realtà. La differenza è data dalle capacità di calcolo superiori degli ultimi processori che permettono l'utilizzo di più parametri.

Dark!tetto

Come già detto "oltre alle foto", conosco la validità dei prodotti ed il loro funzionamento, ma non quanto e in che modo la NPU lavora sul sistema e quanto sia merito dell'ottimizzazione della EMUI.

Federico

Non è questione di ottimizzazione ma di quantità di calcoli necessari.
Colorare delle aree delle quali si cosce unicamente la luminanza ricavando l'informazione cromatica da un'immagine che ha una risoluzione molto più bassa mette dinanzi ad un problema di complessità terrificante quando si tenta la soluzione per via algoritmica.

Dark!tetto

Posso e come visto che il post iniziale già evidenziava l'intervento nell'acquisizione immagine. Se preferisci puoi anche vederlo come "oltre le foto" ho notato questo comportamento, uso la Emui da Honor 6 e ho saltato solo P10 come top ed è difficile distinguere quanto sia effettivamente imputabile alla NPU o al software di sistema ben ottimizzato.

Federico

In questo caso per un confronto corretto dovrai aspettare il Mate 20 Pro, non ha senso confrontare le prestazioni di differenti generazioni

Ngamer

ok ma il confronto io lo devo fare sui top di gamma venduti nel 2018 e hanno tutti lo snap 845 oppure il 970 di huawei

Federico

Credo sia veramente difficile creare per via algoritmica un fotogramma a colori da 20 Mpix reali avendo a disposizione dati ad alta risoluzione di sola luminanza e la crominanza proveniente da un sensore a risoluzione sensibilmente più bassa.
O meglio, per essere possibile è possibile, ma solo con un elevatissimo costo computazionale ed energetico, mentre il Kirin 970 del mio Mate 10 Pro lo fa in tempo reale e con un consumo della fotocamera inferiore a quello di terminali dotati di sensore singolo.

Non puoi dire "escluse le foto" dal momento che è proprio la parte fotografica ad essere paragonabile con gli altri dispositivi, e va da sé che senza confronto non può essere percepito alcun miglioramento.

Dark!tetto

Sono passato dal P9 al mate 10 pro, e ora al P20pro, è difficile capire quanto sia effettivamente l'IA a migliorare l'esperienza o il passaggio ad un SoC più potente (dal p9 al mate10) e al momento con il 970 direi che il miglioramento è imputabile al 15/20% alla Npu escluse le foto se dovessi quantificare in qualche modo.

Federico

E semplice: se hai i soldi per comprarti un iPhone X allora il notch è figo, se non li hai il notch fa schifo.
Stessa cosa per il Kirin 970 e la sua rete neurale, che per i poveri è solo marketing.

Federico

Non è solo una scelta di scene, quello alla fine riguarda la saturazione del colore.
È proprio la gestione delle informazioni provenienti dai due sensori (quello in alta risoluzione è monocromatico) e dei parametri di scatto in modalità automatica ad essere diversa

Federico

Quello è dovuto all'ottimo livello raggiunto dagli Android a partire da Nougat che non soffrono piu di alcun degrado delle prestazioni.

Federico

Interviene un po' su tutto, ma per vederne gli effetti occorre qualcosa che sia paragonabile ai terminali che ne sono privi e quindi foto e navigatore.

Federico

La si vede, e molto, nel comparto fotografico e nella gestione del navigatore.
Dove altro vorresti vederla?

Federico

Speriamo che migliorino anche il display

Federico

845 è della generazione successiva, il confronto va fatto con 835.
Visto che si passa al processo a 7nm consumerà sicuramente meno.

Edoardo Giuffrida

da considerare che anche honor 9 con memorie emmc apriva le app più velocemente di samsung con memorie ufs

makeka94

Non era lo smartphone che ci meritavamo, ma era quello di cui avevamo bisogno...

Ngamer

quelli con lo snap 845 consumano meno

Max
Max
Francesco Venturini

io non capisco perchè non si riesce ad avere delle recensioni su ARM con benchmark e comparison su programmi e giochi come su x86
Ma è così difficile prendere uno snapdragon, un eyxnos, un kirin un mediatek e farle fatte bene? io mi ricordo che anni fa le facevano...

Giulk since 71'

Il problema li non è il 970, ma proprio il 4g / lte che consuma, insomma la parte radio

Ago31

bah, da possessore ti posso dire che dopo 9 mesi di utilizzo il telefono va come il primo giorno, se non meglio. Autonomia e prestazioni non sono degradate per niente. Ora se questo è dovuto alla NPU o all'ottimizzazione software e agli aggiornamenti non te lo so dire, però è un dato di fatto. Almeno nel mio caso è così. Non posso dire la stessa cosa dell's7 edge che ho avuto prima (gran telefono comunque). Vedremo con android Pie come andrà.

Dark!tetto

Non so se non sei al corrente che ha un'unità dedicata o se preferisci chiamarla neural engine, ma sempre della stessa cosa si tratta, un componente dedicato al machine learning.

"Il processore A11 Bionic ha un'architettura a 6 core. A questo si
affianca la prima GPU fatta da Apple, a tre core. È presente una
componente dedicata specificatamente al machine learning, il neural
engine (motore neurale)"
Wikipedia

Gianclaudio Lertora

supporto a bluetooth 5 e ottimizzazione dei consumi , già buona.
e ci siamo.

Dark!tetto

Anche quello può essere, in tal caso è più intelligente di quanto si pensi, perchè convince un gran numero di persone :D

makeka94

Sbam =)

B!G Ph4Rm4

Non ha senso questa, frase il machine learning si fa in vidersi modi a seconda del risultato da ottenere, tra cui l'utilizzo di reti neurali.
Tra l'altro per il riconoscimento delle scene vengono allenate delle reti neurali con milioni di foto, quindi al contrario, è probabile che l'algoritmo della fotocamera Huawei le usi.

Roko Komboko

E il Mate 30 una super bomba.

Max
Max

Da quello che si sussurra A12 avrà un limitato incremento sulla CPU ed uno sostanzioso sulla GPU.

Max

Si ma di neurale non c'è nulla... Machine learning basico basico.

Max

O forse è al 90% marketing...

Max

Aveva inviato un MMS?

Max

Quanto marketing dietro a certi articoli... Motore neurale... IA...

Ngamer

spero che consumi meno del 970 sotto 4g

Mick&LOzzo

Coma, anche qui! Mi pareva strano che ci fossero due utenti con questo nickname.

alexhdkn

Chiaro si

Renato Accorinzi

già, nonostante Samsung abbia migliorato la Samsung experience negli ultimi due anni rimane ancora una rom parecchio pesante, hanno parecchio lavoro da fare

Nuanda

Veramente lo fa dal 2006....ho una macchinetta digitale pagata 80 euro di Sony che riconosce le scene perfettamente...

mazinga71

mettessero pure una super grandangolare ottima e addio apple, samsung e google pixel

x s.

Ne ha uno a 2 core integrato nell' ISP per gestire il face id

Samsung Galaxy S10 Plus vs Huawei P30 Pro: sfida a tutto campo | Video

Huawei P30 e P30 Pro ufficiali: video anteprima

Recensione Huawei Mate 20 X: il top in formato gigante e con M-PEN!

Huawei P Smart 2019 disponibile in Italia a 249 euro | Video anteprima