Archivi categoria: Hardware

Surface Pro 2017, profili colore sRGB/Enhanced spariti dopo formattazione

Facebooktwittergoogle_plusredditlinkedin

Surface è diventato ormai un dispositivo di riferimento per quanto riguarda la categoria dei Tablet PC, ovvero un oggetto versatile con il giusto mix di mobilità e produttività. Poco tempo fa abbiamo recensito il modello Surface Pro 4 e da poche settimane abbiamo acquistato il nuovo Surface Pro (2017) Modello 1796. Presto lo recensiremo per coloro che sono interessati all’uso quotidiano, sia in ambiente domestico che lavorativo.

Una delle novità importanti riguarda lo schermo e nello specifico i profili colore. Il nuovo Surface Pro ha ben 2 profili colore di serie utili soprattutto a chi fa il fotografo, videomaker e grafico: sRGB e Enhanced. Il primo copre il gamut fino al 96% (l’insieme dei colori che il dispositivo o la periferica è in grado di produrre, riprodurre o catturare ed è un sottoinsieme dei colori visibili), e arriva al 71% di AdobeRGB. Il secondo cerca di avvicinarsi al P3-D65 (un spazio colore RGB comune utilizzato per la proiezione di film nell’industria cinematografica Americana); è oggettivamente più contrastato ed ha colori più accesi, rendendo questo profilo più adatto all’uso di tutti i giorni. Se volete approfondire vi rimandiamo all’articolo recensione di HDBlog.it

Ma come è possibile switchare da un profilo colore all’altro? Semplicissimo, direttamente dalle azioni rapide presenti in basso nel centro notifiche. Fermi tutti, da qui parte ufficialmente il nostro articolo guida.

Da buoni IT Pro quali siamo, non appena abbiamo tirato fuori dalla scatola il nuovo e fiammante Surface, ci siamo subito accorti che la versione del sistema operativo era aggiornata alla versione numero 1703. Questo è un buon motivo per eseguire una bella pulizia e reinstallare da zero il sistema operativo con la ISO ufficiale di Windows 10 Fall Creators Update (1709) rilasciata nell’ottobre scorso.

Installiamo Windows 10 1709, installiamo i Driver ufficiali, riavviamo il sistema e…il pulsante per switchare tra i profili colore non c’è più (Figura 1).

Figure 1 – Centro notifiche senza il pulsante per la selezione del profilo colore

“Qualcosa è andato storto durante la formattazione” e, quindi, riformattiamo nuovamente. Nulla da fare. Iniziamo così a cercare su internet e arriviamo ad una discussione su Reddit dalla quale emerge, come unica soluzione, l’installazione dell’immagine di recovery ufficiale. Peccato che questa non sia aggiornata!

Non ci arrendiamo e nella Microsoft Community USA pubblichiamo un post di domanda nel quale chiediamo spiegazioni sulla problematica. Una nostra collega MVP, Barb Bowman, ci risponde e dopo qualche giorno, con un contatto interno a Microsoft, riusciamo ad avere la seguente procedura:

  • Effettuare l’installazione pulita di Windows 10 sul nuovo Surface Pro
  • Al termine installare gli ultimi driver ufficiali utilizzando il pacchetto MSI scaricabile dal sito di Microsoft
  • Riavviare il sistema
  • Verificare da Impostazioni > Sistema > Notifiche e azioni l’assenza dell’azione rapida Profilo colore
  • Installare le più recenti versioni di Visual C++ 2017 supportate, sia x86 che x64, scaricabili sempre dal sito di Microsoft
  • Riavviare il sistema
  • Verificare che l’azione rapida per la selezione del profilo colore sia finalmente comparsa (Figura 2)

Figure 2 – Centro notifiche con il pulsante per la selezione del profilo colore

Una soluzione semplice, ma efficace nel caso vi siate trovati con questa problematica.

Presto pubblicheremo una guida su come formattare in maniera drastica un Surface e installare, ad esempio, Windows 10 Enterprise.

Razer (produttore di hardware per giochi) è molto chiaro: non ci importa di Linux!

Facebooktwittergoogle_plusredditlinkedin

L’apertura di questo recente post dal blog di GNOME lascia poco spazio all’immaginazione:

Don’t buy hardware from Razer and expect firmware updates to fix security problems on Linux.

Non comprate hardware da Razer aspettandovi aggiornamenti che risolvano problemi di sicurezza in Linux.

Prima di tutto: chi sono i tizi di Razer? L’azienda produce hardware dedicato al gaming, attrezzature videoludiche che dovrebbero aiutare i giocatori ad avere un’esperienza definitiva in termini di prestazioni.

Richard, autore del post, racconta come dopo aver proposto la propria collaborazione per aumentare il grado di supporto di Linux all’interno delle soluzioni Razor (in seguito alla chiamata alle armi dell’azienda stessa) si sia sentito candidamente rispondere:

I have discussed your offer with the dedicated team and we are thankful for your enthusiasm and for your good idea.
I am afraid I have also to let you know that at this moment in time our support for software is only focused on Windows and Mac.

Traduzione: grazie, ma al momento ci preoccupiamo unicamente di Windows e Mac. Il che lascia davvero perplessi. Non tanto per la conferma di quella consapevolezza ormai assodata (se giochi, Linux scordatelo), ma soprattutto perché era stata l’azienda stessa a proporre la collaborazione del mondo open per creare soluzioni vicine all’universo del Pinguino.

Stratagemmi commerciali? Smentite in arrivo? Staremo a vedere, nel frattempo se volete giocare a qualcosa con Linux, che ne dite di provarlo su Nintendo Switch?

EPYC: AMD arriva nei data center Baidu

Facebooktwittergoogle_plusredditlinkedin
L'home page del motore di ricerca Baidu. La compagnia cinese ha deciso di investire sui processori AMD EPYC

L’home page del motore di ricerca Baidu.

Baidu, primo motore di ricerca della Cina e terzo a livello globale dopo Google e Bing (dati del 2016), ha annunciato l’arrivo dei processori AMD Epyc nei propri data center. Come abbiamo visto in una precedente intervista, la compagnia è particolarmente interessata ad IA (intelligenze artificiali), Big Data, machine learning e deep learning, il che presuppone l’impiego di elevata capacità di calcolo al fine di accelerare l’analisi dei dati e l’addestramento delle reti neurali.

AMD Epyc (variante da 32 core, fino a 2TB di RAM gestibile) sembra rispondere alle esigenze di Baidu che ha deciso di impiegarlo in modalità single socket per workload IA, Big Data e servizi cloud.

By offering outstanding performance in single-processor systems, the AMD Epyc platform provides flexibility and high-performance in our datacenter, which allows Baidu to deliver more efficient services to our customers. AMD EPYC processors provide Baidu with a new level of energy efficient and powerful computing capability

ha dichiarato Liu Chao (senior director presso Baidu). Baidu non è tuttavia la prima azienda a testare sul campo Epyc. La variante 7551 (frequenza di lavoro compresa tra 2.2GHZ e 3GHZ) è infatti impiegata da alcune settimane nei data center Microsoft per la gestione delle macchine virtuali della serie L (da 8 a 64 vCPU, fino a 15TB di storage e 4TB di RAM). A convincere i vertici di Azure anche la superiore connettività (+33%, si parla di 128 linee PCI per processore) offerta dal setup dual socket AMD rispetto alla concorrenza.

Epyc: il ritorno di AMD?

Si tratta indubbiamente di ottime notizie per AMD che, oltre ad essersi rimessa in gioco con la nuova gamma di processori basati sull’architettura Ryzen (processo produttivo a 14nm), è riuscita a scuotere il mercato a tutto vantaggio di privati ed aziende: basta dare uno sguardo ai listini dei rivenditori online per notare come le CPU AMD offrano prestazioni comparabili a quelle di prodotti inseriti in fasce di prezzo superiori (es: la CPU consumer AMD 1600 offre 200€ lo stesso numero di core dell’Intel i7 6800K a 400€).

Certo, Intel resta ancora lontano, del resto ha avuto modo di consolidare tranquillamente la propria posizione grazie alla scarsa competitività degli inseguitori, ma AMD è sulla buona strada. Il trend “negativo” sembra essersi infatti invertito e l’arrivo della piattaforma Ryzen 2 (Q1 2018) potrebbe dare ulteriore slancio al positivo momento dell’azienda.

Fonti: 1, 2

 

Supercomputer Top500: cresce il divario tra Cina ed USA

Facebooktwittergoogle_plusredditlinkedin
Summit Supercomputer

Summit potrebbe riportare gli USA in testa alla Top500. La sua inaugurazione è prevista per i primi mesi del 2018.

Novembre è il mese in cui viene pubblicato il secondo ed ultimo aggiornamento annuale della Top500, la prestigiosa lista in cui sono inseriti i supercomputer più performanti del mondo.

Lo scorso Giugno la Cina ha superato per la prima volta gli USA per numero totale di sistemi presenti in classifica (167 vs 165). I nuovi dati raccolti nel report finale del 2017 certificano un ulteriore consolidamento della leadership orientale che arriva a 202 sistemi. Gli Stati Uniti, che scendono a 143, restano comunque inavvicinabili dagli altri Paesi (Giappone 35, Germania 20, Francia 18, Regno Unito 15).

Un risultato degno di nota è anche quello ottenuto da Linux che detiene ora il monopolio della Top500. Meno sorprendente invece il predominio di Intel, presente con le proprie soluzioni nel 94.2% dei sistemi. Diamo un rapido sguardo alla Top10:

Supercomputer Top500 - Novembre 2017

La top3 è rimasta invariata: TaihuLight è in vetta alla Top500 da Giugno 2016 grazie ai suoi 93 petaflops (benchmark Linpack), seguito a ruota dal “connazionale” ed ex numero #1 Tianhe-2 (33.8 petaflops) e da Piz Daint (19.59 petaflops).

Gli USA perdono invece una posizione: il “vecchio” Titan è stato infatti sostituito al numero #4 dalla new entry Gyoukou. Trinity (14.1 petaflops) guadagna tre posizioni passando dalla #10 alla #7 con un upgrade che lo porta quasi a raddoppiare le prestazioni registrate a Giugno (8.1 petaflops).

Gli USA si praparano al 2018

Per vedere sostanziali cambiamenti bisognerà attenderà il report di Giugno 2018, quando diversi sistemi attualmente in fase di costruzione potranno cimentarsi con i vari benchmark.

Il supercomputer più promettente è Summit, in lavorazione presso l’Oak Ridge National Laboratory (dove alberga Titan) e dotato sulla carta di una capacità di calcolo notevole, 200 petaflops, e circa 25.000 schede grafiche Nvidia v100 (architettura Volta). Interessante notare che Summit non si appoggerà ad architetture Intel ma IBM (POWER9):

“We’re still targeting early 2018 for the final build-out of the Summit machine, which we expect will be among the world’s fastest supercomputers. The advanced capabilities of the IBM POWER9 CPUs coupled with the NVIDIA Volta GPUs will significantly advance the computational performance of DOE’s mission critical applications”.

Fonti: 1, 2

 

 

Cerberus: il microcontroller crittografico Microsoft

Facebooktwittergoogle_plusredditlinkedin
Il microcontroller Cerberus

Il microcontroller Cerberus. Fonte: blog ufficiale Microsoft.

Cerberus è uno dei tanti progetti che Microsoft sta sviluppando in seno all’OPC (Open Compute Project), l’organizzazione nata nel 2o11 per proporre nei data center enterprise degli standard hardware open source ed aggirare il monopolio dei vendor storici – obiettivo non esplicitato nel manifesto programmatico ma indubbiamente raggiunto. Redmond si è unita alla schiera di supporter OPC nel 2014 affiancandosi ad altri illustri nomi come Google ed Apple.

Cerberus è legato ad Olympus, il server cloud custom che Microsoft utilizza già da qualche tempo su Azure con le macchine virtuali FV2 ed il cui design ha raggiunto in questi giorni la versione 2.0. Il microcontroller crittografico, definito dalla stessa compagnia come la prossima fase del progetto Olympus, si occupa di proteggere il firmware di scheda madre, periferiche I/O ed altri elementi sensibili fin dalla fase di pre-boot mediante controllo degli accessi e verifiche d’integrità:

Project Cerberus consists of a cryptographic microcontroller running secure code which intercepts accesses from the host to flash over the SPI bus (where firmware is stored), so it can continuously measure and attest these accesses to ensure firmware integrity and hence protect against unauthorized access and malicious updates. This enables robust pre-boot, boot-time and runtime integrity for all the firmware components in the system.

Quali minacce è in grado di controstare Cerberus

Cerberus root of trust

Cerberus root of trust. Fonte: blog ufficiale Microsoft.

Microsoft, si legge nel post dedicato al microcontroller, spende ogni anno circa 1 miliardo di dollari per garantire la sicurezza “fisica” e digitale delle proprie infrastrutture e parte dell’esperienza maturata su Azure è stata riversata nel progetto. Le potenziali minacce contrastabili da Cerberus sono le seguenti:

  • malintenzionati con privilegi amministrativi o accesso diretto all’hardware;
  • hacker e malware che intendono sfruttare vulnerabilità di applicazioni, sistemi operativi ed hypervisor;
  • attacchi indirizzati alla catena di distribuzione (produzione, assemblamento, in transito);
  • firmware compromessi.

Sposando in pieno i princìpi dell’OPC, Microsoft ha deciso di rendere compatibile Cerberus con qualsiasi processore (viene menzionata la collaborazione con Intel) e scheda madre – in modo da renderne più facile l’implementazione. Tra i settori ai quali si rivolge la compagnia anche quello l‘Internet delle Cose i cui device necessitano sicuramente di standard di sicurezza più elevati. Per quanto riguarda le specifiche del progetto, Microsoft intende rendere disponibili all’OPC in un secondo momento perchè ancora in fase di stesura.

Fonte: 1

 

 

 

 

 

Qualcomm Centriq 2400: la carta vincente di ARM?

Facebooktwittergoogle_plusredditlinkedin

Qualcomm

Qualcomm è l’azienda che potrebbe spalancare le porte dei data center ai chip ARM. E’ quello che afferma l’editorialistia di The Next Platform in un lungo articolo al quale faremo riferimento in questo post. Dello sbarco di ARM nei data center si è parlato più volte anche qui su Hosting Talk: le “speranze” sono state riposte in un primo momento su Cavium ed Applied Micro che con i loro prodotti sono riusciti ad attirare l’attenzione di vendor come HPE e Cisco. Le buone caratteristiche dei chip non sono tuttavia bastate a scalfire il predominio x86 di Intel ed ARM è rimasto relegato a casi di utilizzo specifici e test server, in sintesi ad una nicchia di mercato. 

Per budget/organico/esperienza maturata negli anni Qualcomm appare invece come il partner ideale per il rilancio di ARM in ambito enterprise. Il SoC a 10nm (system on a chip) Centriq 2400 (48 core single thread), che si appresta ad essere rilasciato sul medio termine, è stato uno dei protagonisti indiscussi dello speech tenuto da Satadal Bhattacharjee (director of product management presso il Data Center Technologies group Qualcomm) alla recente ARM TechCon (24-26 Ottobre 2017). L’intervento si è soffermato appunto sul perchè l’azienda abbia le potenzialità per sfruttare le opportunità offerte dalle profonde trasformazioni che stanno interessando il panorama IT e che possono essere riassunte dalla parole cloud, IoT e mobility:

The scale to which datacenters are growing … and the billions of devices that are coming out, most of those devices, including our phones, need processingthat has to be done at the datacenter. It’s not happening on the device. Most of this is happening on the server side. So what does it mean? If there are so many devices coming out – we’re talking about trillions of devices – then the datacenters have to pack a lot more servers. There is a physical limitation in how many servers you can pack within a particular rack, so there is a strong desire to get more out of that rack space and more compute from the power limit that is there.

Il riferimento ad assistenti “intelligenti” ed altre applicazioni che necessitano di appoggiarsi ai data center è chiaro (es: app che “ascoltano” una traccia musicale ed individuano in pochi istanti autore, titolo etc.).

Qualcomm punta tutto sul cloud

Solo un prodotto con un ottimo rapporto potenza/prezzo/consumi energetici/calore generato può spianare realmente la strada alle soluzioni ARM. Ed è proprio quel che vuole offrire l’azienda ad hyperscale e cloud provider (AWS, Facebook etc.), estremamente sensibili a temi come l’efficienza energetica e pronti ad abbracciare rapidamente inedite soluzioni (se convenienti). Secondo Satadal, un rack equipaggiato con un singolo chip ARM è in grado di raggiungere prestazioni equiparabili a quelle di un rack con configurazione dual socket Intel Xeon.

E’ l’esperienza maturata in ambito mobile, dove potenza disponibile ed autonomia dei device devono essere sempre bilanciati tra loro, aggiunge Satadal, ad aver consentito a Qualcomm di progettare un chip altamente competitivo, con alcune precisazioni. E’ stato lo stesso Bhattacharjee ad ammettere che Centriq non è adatto a qualsiasi caso di utilizzo:

the focus has been on the cloud customers. […] IT consumption is changing from centralized, on-premises servers to more cloud-based systems, and that trend started quite a few years back and it’s not stopping as more and more applications have been shifted to the cloud model

Se si parla di HPC (high performance computing) il mercato offre alternative migliori, sottolinea indirettamente.

Centriq 2400 è attualmente in fase di produzione generale ma Qualcom sta già lavorando alla seconda e terza generazione del SoC – rispettivamente in fase di sviluppo e studio dell’architettura.

Fonte: 1

HPE: stop alla vendita dei server cloud di fascia bassa

Facebooktwittergoogle_plusredditlinkedin

HPE (Hewlett Packard Enterprise)

La strategia degli hyperscale provider sembra iniziare ad avere effetti controproducenti sugli storici vendor di hardware e server. Lo dimostra l’importante decisione di HPE che da ora in poi non si occuperà più di fornire “commodity server” (server di fascia bassa) a compagnie come Alibaba, Microsoft e Google. Da alcuni anni queste ultime hanno iniziato infatti a “studiare” in casa il design delle macchine (e non solo) che andranno ad occupare i sempre più numerosi data center a livello globale rivolgendosi a vari produttori OEM asiatici e bypassando quindi i vecchi monopolisti.

Lo scorso Marzo, riferisce Data Center Knowledge (DCW), Meg Whitman (chief executive HPE) dichiarò pubblicamente che la compagnia aveva constatato un sensibile calo di ordini da parte di un provider  di alto profilo (Bloomberg, citando una fonte anonima, affermò che si trattava di Microsoft).

La decisione di bloccare la vendita dei server cloud low end ha richiesto diversi mesi per essere valutata ed analizzata ma la scorsa settimana è arrivata infine la conferma (sempre dallo stesso Whitman): HPE si concentrerà su prodotti in grado di garantire margini di guadagno più elevati come server high end, storage, strumentazione di rete, infrastrutture hyper converged. Ma si tratta davvero della giusta strategia?

Un altro segmento di mercato per HPE

L’Open Compute Project (OPC) ed altre iniziative sono considerabili da HPE, DELL ed affini come i competitor numero 1 e la principale minaccia al loro modello di business: il solo fatto che il design di hardware e server sia opensource rende estremamente difficile differenziare i propri prodotti da quelli degli OEM asiatici e l’unico modo per aggiudicarsi le commesse resta quello di offrire prezzi convenienti e tempi di consegna fulminei. I provider sono riusciti a ribaltare i rapporti di forza ed ora dettano le nuove regole del gioco. DCW osserva giustamente che niente potrebbe impedirgli di rivolgersi agli OEM asiatici anche per i server di fascia alta e gli altri prodotti sui quali i vendor storici hanno deciso di focalizzare la propria attenzione. Come uscire dalla problematica situazione?

Per il momento i famigerati OEM orientali sembrano essere poco interessati alle grandi aziende enterprise (un gradino sotto gli hyperscale provider) perchè i server di fascia bassa, per produrre delle entrate, necessitano di ingenti ordini che solo i cloud provider possono permettersi. Negozi retail, banche, compagnie assicurative, aziende del settore manifatturiero, solo per citarne alcune, appaiono allora come il cliente ideale per i vendor della vecchia guardia. L’adozione del cloud avanza però senza sosta e la migrazione dei workload enterprise nella nuvola metterà nuovamente alla prova il modello di business HPE, conclude DCW.

Fonte: 1

 

 

 

Raffreddamento a liquido: i vendor puntano ai data center

Facebooktwittergoogle_plusredditlinkedin
Dissipazione a liquido

Le piastre (liquid cold plate) facilitano il contatto tra i componenti hardware ed il liquido agevolando la cattura del calore. Asetek, CoolIT e Chilldyne, seppur con scelte di design differenti, si affidano a tale soluzione.

Data Center Knowledge (DCW) è tornato a parlare recentemente di soluzioni per il raffreddamento a liquido, affrontando la questione della loro difficile affermazione in ambito data center. Ne è un perfetto esempio il bilancio di Asetek che nella prima metà del 2017 ha fatturato circa 1.4 milioni di dollari contro i 21 milioni dei prodotti destinati alla fascia consumer (in particolare modo pc desktop per il gaming). Il CEO Andre Eriksen sembra tuttavia avere un asso nella manica e si prepara ad annunciare a breve (metà Novembre) una partnership (Intel?) che sarà in grado di rilanciare il business della compagnia nelle infrastrutture IT (game changer):

The data center is where the biggest potential is long-term“In the longer perspective, I believe that data centers will be liquid cooled.

Quanto potrebbe valere il business delle soluzioni a liquido nei data center? Eriksen parla di 5-10 miliardi di dollari, una cifra davvero considerevole. Asetek non è l’unica azienda specializzata in soluzioni a liquido che punta all’invitante torta: la canadese CoolIT Systems è un altro importante player del settore (ha stipulato accordi con DELL ed HPE) ; anche la relativamente piccola Chilldyne (California) mostra indiscutibili potenzialità (è riuscita ad ottenere una commessa dalla DARPA). Non bisogna poi dimenticare le aziende che propongono l’immersione completa dei componenti in fluidi dielettrici, una soluzione che rispetto a quella delle “piastre” (foto in alto) è in grado di dissipare quantità maggiori di calore: le compagnie specializzate in questo campo sono LiquidCool Systems, Asperitas, Green Revolution Cooling, Iceotope.

Cosa potrebbe alimentare la richiesta di soluzioni a liquido?

Secondo DCW il trend che ha visto prevalere le soluzioni ad aria nei data center potrebbe invertirsi grazie al deep learning ed altri workload IA. Le schede video sono uno dei componenti hardware (l’altra soluzione è rappresentata dai chip riprogrammabili) che si sono affermati negli ultimi anni come valida fonte di capacità di calcolo da affiancare ai processori general purpose.

Steve Harrington (CTO Chilldyne) ha dichiarato a tal proposito che le soluzioni DLC (direct liquid cooling) sono molto apprezzate perchè facilmente adattabili a casi di utilizzo ostici per i dissipatori ad aria (es: set di rack da 5kw e 60kw) ed in grado di permettere l’utilizzo GPU consumer in ambito HPC (High Performance Computing) – nell’articolo si parla di  132 server equipaggiati con oltre un migliaio di schede video AMD R9 290x che, senza il liquido, sarebbero difficilmente gestibili.

Anche i colocation provider potrebbero supportare l’ascesa del DLC nei data centert:  Virtus, che si appresta ad inaugurare un complesso da 90MW nei pressi di Londra, ha dichiarato a DCW che si aspetta di vedere sul medio termine un crescente numero di strutture che integrano soluzioni di raffreddamento a liquido. Una previsione simile è stata avanzata anche da Verne Global.

L’Internet of Things e l’edge computing sono i terzi potenziali supporter dei vendor DLC: DCK ricorda in chiusura che l’esigenza di analizzare e processore dati grezzi in loco (a questo si riferisce il termine edge computing) si affermerà sempre di più nel settore IT.

Fonte: 1