In un aggiornamento che segue le rivelazioni Meltdown e Spectre, Intel ha ammesso che i problemi riguardano anche i chip più recenti. La società aveva precedentemente focalizzato la sua attenzione – e quella degli utenti – sui chip Broadwell e Haswell, ma ora il vice presidente della compagnia Navin Shenoy ha ammesso che le piattaforme Ivy Bridge, Sandy Bridge, Skylake e Kaby Lake sono sensibili.

In notizie piuttosto più positive, Shenoy dice anche che sono stati compiuti buoni progressi nell’individuare la causa alla radice del problema. Inoltre, il beta microcode dovrebbe essere reso disponibile ai venditori la prossima settimana.

In un post sul blog, Shenoy afferma che “mentre gli aggiornamenti del firmware sono efficaci per mitigare l’esposizione ai problemi di sicurezza, i clienti hanno segnalato riavvii più frequenti sui sistemi aggiornati del firmware.” Fu durante l’indagine di questi ulteriori problemi che fu scoperto il grande impatto di Meltdown e Spectre.

Come parte della promessa trasparenza nel problema in corso, Intel ha anche rilasciato ulteriori benchmark che mostrano l’impatto delle patch. L’azienda continua a insistere sul fatto che l’impatto sarà minimo, ma aggiunge l’avvertenza che ciò dipenderà “da specifici carichi di lavoro e configurazioni”. Shenay afferma che “i carichi di lavoro che incorporano un numero maggiore di modifiche ai privilegi utente / kernel e passano una quantità significativa di tempo in modalità privilegiata saranno maggiormente influenzati negativamente” e condivide i seguenti risultati:

  • Impatti che vanno dallo 0-2% alle misure standard di settore di throughput intero e in virgola mobile, Linpack, STREAM, benchmark Java sul lato server ed efficienza energetica. Questi benchmark rappresentano diversi carichi di lavoro comuni importanti per i clienti aziendali e cloud.
  • Un benchmark di elaborazione delle transazioni online (OLTP) che simula la modellizzazione dell’interazione scambio-cliente-borsa-cliente di una società di intermediazione ha mostrato un impatto del 4%. Sono in corso ulteriori test di analisi e i risultati dipenderanno dalla configurazione del sistema, dalla configurazione del test e dal benchmark utilizzato.
  • I benchmark per lo storage hanno anche mostrato una serie di risultati in base al benchmark, all’impostazione del test e alla configurazione del sistema:
    • Per FlexibleIO, un benchmark che simula diversi tipi di carichi I / O, i risultati dipendono da molti fattori, tra cui mix di lettura / scrittura, dimensioni dei blocchi, unità e utilizzo della CPU. Quando abbiamo condotto test per sottolineare la CPU (caso di scrittura al 100%), abbiamo visto un calo del 18% delle prestazioni di throughput perché non c’era spazio per l’utilizzo della CPU. Quando abbiamo utilizzato un modello di lettura / scrittura 70/30, abbiamo riscontrato un calo del 2% delle prestazioni di throughput. Quando l’utilizzo della CPU era basso (caso di lettura al 100%), come nel caso del provisioning dello storage comune, abbiamo riscontrato un aumento dell’utilizzo della CPU, ma nessun impatto sulle prestazioni del throughput.
    • I test SPDK (Storage Performance Development Kit), che forniscono un set di strumenti e librerie per la scrittura di applicazioni di archiviazione in modalità utente ad alte prestazioni e scalabili, sono stati misurati in più configurazioni di test. Usando SPDK iSCSI, abbiamo visto un impatto del 25% mentre si utilizzava un solo core. Utilizzando SPDK vHost, non abbiamo riscontrato alcun impatto.

Lascia una recensione

Please Login to comment
avatar
  Subscribe  
Notificami