mercoledì 21 settembre 2011

Windows 8: prime impressioni dalla Developer Preview

La settimana scorsa, Microsoft ha rilasciato la Developer Preview del suo prossimo sistema operativo, che si chiamerà molto probabilmente Windows 8. Questa versione è ancora lontana da quella che sarà la release finale, in effetti non è neanche una beta, ma è dedicata agli sviluppatori, in modo che inizino a conoscere meglio il nuovo “habitat”. Il ritmo di sviluppo di Microsoft (ma la stessa cosa vale per tutte le grandi software house) è molto elevato, pensate che Windows 8 è in fase di sviluppo da giugno 2009, ancor prima dell’uscita di Windows 7!

La versione da me provata è una 32bit senza kit di sviluppo, installata su netbook Asus EeePC 1101HA. Essendo un sistema orientato alla compatibilità con i tablet infatti, ho preferito testarlo su di una macchina avente caratteristiche hardware non molto superiori (anzi forse inferiori) alle famose tavolette.
Una volta avviato il PC dalla chiavetta USB contenente l’immagine di windows, la schermata d’installazione apparsa è pressoché identica a quella di Windows 7. Dal momento in cui ho lanciato l’installazione fino a quando è comparsa la schermata di configurazione, il sistema ha impiegato in tutto solo 12 minuti!
La prima cosa da segnalare è il fatto che questo nuovo Windows permette già in fase di setup l’integrazione con Windows Live ID, per cui se avete un account MSN o Xbox Live potrete sincronizzarlo comodamente con il SO.


Una volta completata la semplicissima fase di configurazione iniziale, occorrono altri 2-3 minuti per avere finalmente il sistema perfettamente operativo.
Il desktop di Windows 8 risulta particolarmente famigliare: praticamente è IDENTICO a quello di Windows 7. L’unica differenza nell’interfaccia grafica è rappresentata da “Ribbon”, ovvero la nuova bassa dei menu presente da Office 2007 che ora ha preso il posto di quella classica in tutto Windows.

Schermata di sblocco, bisogna trascinarla in alto
Ecco come appare il desktop "classico"

Le somiglianze però finiscono qui, infatti una volta avviato il tasto Start ecco comparire la famosa interfaccia “Metro”, lanciata per la prima volta su Windows Phone e ora portata in ambiente desktop.

La famosa interfaccia "Metro", in questa preview sostituisce il menu Start

Questa versione preview è ovviamente abbastanza “spoglia”, troviamo infatti qualche applicazione (per lo più giochi), Internet Explorer 10, lo Store (non ancora attivo),  il Pannello di Controllo e il ritorno al desktop. Le applicazioni aperte da un’interfaccia, funzioneranno all’interno dell’ambiente grafico dove il programma è stato lanciato. Se apriamo IE10 dalla “Metro” per esempio, esso funzionerà con lo stile “Metro”, con la barra degli indirizzi in basso e un’anteprima delle finestre in alto (menu attivabili con il click destro del mouse su PC), stessa cosa vale per il pannello di controllo, ma NON per il Windows Explorer, che verrà lanciato in ambiente desktop classico.

Nuovo look anche per il pannello di controllo, è possibile visualizzare anche quello classico

Ovviamente i vari elementi dell’interfaccia Metro potranno essere spostati e ridimensionati, proprio come è oramai consuetudine in tutti i tablet e smartphone. Altra prerogativa è il fatto che le applicazioni lanciate dalla nuova interfaccia non vengono mai chiuse, ma una volta richiamata la “home” (cioè il tasto Start), queste vengono messe in uno stato di sospensione. Le applicazioni non impegneranno la CPU durante lo stato di sospensione, ma una volta avviate nuovamente,  esse si apriranno istantaneamente senza dover aspettare che il SO le carichi. Insomma, proprio come accade con le applicazioni degli smartphone.


Passiamo ora a parlare della gestione del sistema: oltre alla sopraccitata Ribbon, possiamo trovare novità anche nel task-manager: al primo avvio ci apparirà soltanto la lista delle applicazioni aperte e in background, ma andando a cliccare sul pulsante per mostrare tutti i dettagli si aprirà un mondo!
Innanzitutto troviamo una schermata precisa e ordinata che mostra la lista dei task dove, con un semplice click sul tasto “+” posto al fianco di ognuno di essi, è possibile visualizzare la lista dei servizi associati al processo, senza dover quindi andare a ricercarli manualmente, con il rischio di sbagliare.
Nella seconda scheda possiamo ammirare una serie di grafici molto dettagliati, che mostrano l’andamento della CPU, della RAM, del disco e del traffico in rete. Nella scheda App History abbiamo la cronologia delle applicazioni aperte in passato e, come ultima novità, abbiamo la gestione delle applicazioni in startup direttamente nel task-manager.

Un task-manager molto più dettagliato...
...possiamo controllare dettagliatamente l'utilizzo di ogni componente del sistema o sapere se il nostro PC si vede con degli sconosciuti se lo vogliamo 

Il file manager non cambia rispetto a windows 7, possiamo notare però una gestione dei trasferimenti molto più dettagliata e organizzata. Un grafico ci mostrerà l’andamento del transfer-rate mentre, copiando più file, avremo un’unica finestra di trasferimento, il tutto gestito da un unico task. Di questa ottimizzazione del sistema di trasferimento infatti, Microsoft parlò poco prima della presentazione.


Grafici ovunque, anche nel trasferimento file


Ovviamente non si può dare alcun giudizio a questo Windows 8, infatti è soltanto una release palesemente INCOMPLETA, nonché un misto poco azzeccato tra interfaccia Metro e classica. Possiamo quindi dire che si tratta solo di una rapida occhiata, che ha messo in mostra come Microsoft si sia concentrata maggiormente sull’interfaccia grafica per rendere il sistema facilmente utilizzabile su tablet.
Non ho voluto entrare meglio nei dettagli perché non avrebbe senso con una release così acerba, non ci resta che attendere con calma che finiscano per bene il lavoro per avere una idea di come realmente sarà il nuovo Windows.



PS: per questioni di praticità, le immagini provengono da una versione virtualizzata.

martedì 13 settembre 2011

La Carica degli Ultrabook


Se dovessimo aprire un vocabolario inglese del 1950 e lo confrontassimo con uno del 2011, troveremmo moltissime differenze e termini aggiunti. Stessa cosa vale anche per la lingua italiana certo, ma forse in maniera inferiore.
La stragrande maggioranza di questi termini hanno molto probabilmente avuto origine con l’avvento delle tecnologie informatiche. Internet, Web, Browser, Notebook e tutta la famiglia di vocaboli informatici hanno riempito pagine e pagine di vocabolario, e il trend (notare il termine) non accenna affatto ad arrestarsi. Dopo gli ultimi arrivi “Netbook” e “Talbet” ecco arrivare “ULTRABOOK”.

Terminologia a parte, stiamo parlando di portatili dallo spessore ridotto, anzi RIDOTTISSIMO.
Inizio l’intervento parlando ancora una volta di Apple, azienda senza dubbio caratterizzata da un discutibile modo di fare business, ma dalle ottime capacità di reinventare e di progettazione. Proprio da queste capacità, nel 2008 è stato presentato al mondo quello che ritengo uno dei  migliori prodotti tecnologici degli ultimi anni: il MacBook Air. Questo gioiello di ingegneria non è altro che un notebook (pardon, un MacBook, anche se i MacBook a parte il software non hanno nulla di diverso da un notebook), dallo spessore di poco maggiore di quello un quaderno.
A mio modo di vedere le cose, questo è quello che definisco PROGRESSO: il computer portatile deve essere appunto il più portatile possibile e il MacBook Air sposa esattamente questa tesi. Per uno studente o un uomo d’affari una cosa del genere è manna dal cielo: ingombro e peso ridotti all’osso, senza dover rinunciare a tastiera, connettività e potenza (insomma non è un tablet).
Complimenti Apple dunque, tuttavia il problema dei prodotti della mela morsicata è sempre lo stesso: il prezzo! Nonostante lo ritenga il prodotto Apple meno sovrapprezzato, per avere un dispositivo del genere bisogna sborsare non meno di 1300€*. Nonostante tutto le vendite sono più che soddisfacenti, in effetti tutto ciò che esce dai laboratori Apple vende bene.

Steve Jobs mostra al mondo la sua "creatura"....e sorride pensando ai soldi che gli farà fare

Da quando Apple strinse un accordo con Intel, tutte le piattaforme dei computer della mela sono realizzate da Intel. Quest’ultima, facendo atto delle buone vendite del gioiellino Apple, ha deciso di fornire linee guida per la costruzione di soluzioni simili anche ad altre aziende. Ultrabook quindi è una specifica costruttiva di Intel per la produzione di notebook ultrasottili: possiamo vederla come una scommessa fatta dal colosso di Santa Clara. Intel nel 2012 prevede che il 40% degli acquirenti di una soluzione portatile sia orientato verso una piattaforma ultrabook. Gli analisti del colosso delle CPU non sono affatto stupidi, infatti hanno scelto come terreno di test nientemeno che Apple, che ovviamente più di ogni altra azienda accoglie l’innovazione.

Proprio come le soluzione netbook (che stanno via via sempre più scomparendo grazie alla diffusione dei tablet), l’hardware degli ultrabook delle varie marche è pressoché identico: troviamo infatti processori aventi architetture Sandy Bridge “low voltage” , unità SSD e (purtroppo) una connettività abbastanza limitata, a causa del design “estremo”, che costringe i produttori a limitare le connessioni esterne a sole 2 porte USB e al massimo un altro paio di porte, siano esse HDMI o Ethernet.
Nei primi giorni dopo la presentazione, Intel avvertì i partner dicendo loro che le soluzioni Ultrabook avranno successo SOLO se saranno vendute ad un prezzo inferiore di quello dell’Air. Le aziende hanno accettato volentieri il consiglio, infatti dai primi prezzi comparsi nei listini, queste soluzioni dovrebbero essere vendute attorno agli 800€.

Una slide di Intel che mostra i punti di forza dei nuovi portatili ultrasottili

Insomma ci troviamo di fronte ad uno scenario già visto diverse volte: Apple reinventa una soluzione (lo ha fatto ultimamente con iPhone e iPad) e la concorrenza è costretta a buttarsi nello stesso settore. Vista così sembra una cosa molto triste, possibile che solo un’azienda riesce a tirare fuori qualcosa di nuovo?
In realtà moltissime aziende propongono novità, basti pensare ai netbook, ai telefoni con tastiera slider, ma anche gli stessi smartphone full-touchscreen  (come Sony Ericsson P800). Tuttavia nessuno riesce ad avere lo stesso impatto che hanno i prodotti Apple, forse perché l’azienda di Cupertino riesce a trovare il momento giusto (dato dalla tecnologia disponibile) per tirare fuori il nuovo “iCoso” di turno, oppure semplicemente perché Apple è una vera e propria moda, non importa cosa faccia e come lo faccia, sarà sempre “figo”.

Una catasta da 4000€ alta meno di un palmo

Fatta questa premessa arrivo al punto: riusciranno questi Ultrabook a competere con lo strapotere Apple? Oppure saranno soltanto un trampolino di lancio per il MacBook Air, portando le sue vendite ai livelli di iPad e iPhone? La scelta spetta a voi.

* Parlo del modello 13” dato che la concorrenza, gli Ultrabook appunto, offre portatili dalla medesima diagonale.


martedì 6 settembre 2011

Grafene: il candidato numero uno per sostituire il Silicio


L'elettronica, l'informatica e le telecomunicazioni sono probabilmente le tecnologie che hanno subito l'evoluzione più rapida nella storia dell'uomo. Se pensiamo a 60 anni fa infatti, un elaboratore non più potente di una calcolatrice scientifica arrivava ad occupare la dimensione di una stanza, fatto da valvole, schede perforate e unità disco da 5 Mb grandi come il tronco di una quercia secolare e alte un paio di metri. Poi arrivò il transistor, il componente fondamentale di tutta l'elettronica digitale, che rimpiazzò presto le valvole (ma non in campo audio dove tutt'oggi sono ricercate). Le fastidiose matasse divennero quindi eleganti tavolette con circuiti stampati e componenti saldati.
Ma il vero punto di svolta avvenne però con il SILICIO. Le proprietà di questo semiconduttore infatti, permisero la creazione di circuiti integrati. In un centimetro quadrato si riuscirono a far entrare centinaia di transistor, poi migliaia, poi milioni e oggi centinaia di milioni. La crescita è così elevata che Gordon Moore, uno dei fondatori di Intel, ipotizzò che il numero di transistor all'interno delle CPU sia destinato a raddoppiare ogni 18 mesi. Questa osservazione è ritenuta così “sacra” e importante da essere chiamata “Legge di Moore” ed è il motto a cui fa fede Intel ogni volta che sviluppa un nuovo processo produttivo.

Un wafer di silicio. Pensate che in ognuno di quei chip pronti da tagliare ci sono milioni e milioni di transistor!
Moore tuttavia non aveva previsto una cosa (oppure lo aveva fatto ma nessuno lo aveva preso sul serio): prima o poi bisognerà fermarsi. Infatti ci si sta avvicinando sempre di più alle dimensioni dell'atomo, oltre non è possibile andare. Oggi siamo in un periodo in cui non è più possibile tenere fede in maniera rigorosa alla “Legge di Moore”. I processi produttivi diminuiscono sempre di più, attualmente ci troviamo a 28nm, ma i consumi non diminuiscono e le prestazioni non raddoppiano, contraddicendo anche l'altro aspetto della legge che prevede anche un raddoppio di prestazioni ogni 18 mesi.
Non solo le ridottissime dimensioni dei transistor rendono sempre più complicato il processo di realizzazione, ma i problemi di diafonia dovuti dalla vicinanza dei componenti diventano sempre più difficili da gestire.* Se già tra due piste di rame poste ad un millimetro di distanza si possono creare fenomeni di accoppiamento elettromagnetico, figuriamoci se queste piste si trovano a poche decine di nanometri.
Per ridurre gli effetti di capacità ed induttanze parassite si ricorrono a piste di massa intermedie e filtri di controllo, che non fanno altro che occupare sempre più spazio all'interno del chip: ecco perché le prestazioni non raddoppiano e i consumi non calano.
Del resto i limiti del silicio hanno anche portato alla fine della “corsa ai megahertz”, portando avanti nuove idee di sviluppo, come le architetture multi-core e APU.

Il silicio quindi sta invecchiando, i primi capelli grigi e le rughe cominciano a farsi vedere: c'è bisogno di un successore al trono. Dopo anni di ricerca (fortunatamente all'estero ci investono), tutt'ora ancora in corso, il candidato ideale sembra essere proprio questo GRAFENE.
Come è facilmente intuibile dal nome, questo materiale è ricavabile attraverso procedimenti chimici dalla grafite. La cosa che lo rende così speciale è il forte legame tra gli atomi che la compongono, in grado di mantenere una solidissima struttura cristallina. Addirittura si pensò di sfruttare questa caratteristica per trainare carichi pesantissimi utilizzando barre di grafene, tanto per fare un esempio per sollevare un ascensore pieno basterebbe un filo di grafene non più grande di un filo di nylon. Questa solidità dei legami tuttavia può essere più intelligentemente sfruttata per creare strutture piccolissime, dal momento che riuscirebbero a reggere senza collassare molto meglio di altri materiali. Quanto piccole? Come UN ATOMO.

Una struttura di nanotubi di grafene, simulata in computer grafica ovviamente
Esatto, è possibile realizzare “fogli” di grafene dallo spessore di un solo atomo. Ma a che serve direte voi.
La risposta è semplice: quando un elettrone scorre in un conduttore, questo ha una certa probabilità di scontrarsi con un nucleo di un atomo di rame e “schizzare” fuori dal conduttore, proprio come una palla da biliardo. Più atomi di conduttore ci sono, più è alta la probabilità che un elettrone si scontri, quindi più è alta la resistenza parassita. Se si riesce a ridurre lo strato conduttore ad un solo atomo, la resistenza diviene bassissima, perché la distanza tra nucleo ed elettroni è molto grande rispetto alla dimensioni delle cariche, l'atomo infatti è per la maggior parte vuoto.
Avremmo quindi dei circuiti che si comportano in maniera quasi IDEALE. Molto di quello spazio occupato da circuiti per correggere i problemi creati dai limiti del silicio verrebbe utilizzato per altri transistor. La minore resistenza inoltre si tradurrebbe in un minore riscaldamento del chip, dal momento che il calore si genera proprio grazie alle resistenze parassite che trasformano parte dell'energia sprigionata dall'urto in calore.

Il superamento di questi limiti potrebbe favorire un ritorno allo sviluppo concentrato sull'incremento della frequenza di clock. Un gruppo di ricerca di IBM è riuscito addirittura a ricongiungere una frequenza di 100MHz con dei transistor realizzati in grafene.
Ma grafene non vuol dire solo CPU: con questo straordinario materiale si sta lavorando (in termini di ricerca) per la realizzazione di memorie sempre più capienti e veloci, per non parlare delle batterie, che sono a tutti gli effetti la rogna maggiore dei produttori di dispositivi mobile.
Altro settore dove trova posto questo materiale sono le telecomunicazioni: tutti i vantaggi portati dalle comunicazioni ottiche vengono ad annullarsi se le si utilizzano per brevi distanze, poiché ad un certo punto i “dati ottici” devono comunque essere convertiti per lavorare su circuiti elettronici. Utilizzando materiali “normali”, questa conversione si traduce in una enorme perdita di tempo. Le alte velocità dei circuiti al grafene invece potrebbero riuscire a colmare gran parte delle latenze, garantendo alte velocità anche nei punti di scambio.
Le potenzialità per diventare il sostituto ideale del silicio ci sono tutte, ovviamente per arrivare alla fase di sviluppo saranno necessari ancora anni di ricerca, ma questo è normale, avviene per ogni nuova tecnologia “rivoluzionaria” che si sviluppa. La parte più difficile però sembra essere superata, ovvero quella di trovare la strada giusta, per il resto basta camminare ancora e ancora.


*La maggior parte del tempo impiegato da un elaboratore nel processare dati, viene “sprecato” per il trasporto dell'informazione attraverso i BUS.