mercoledì 21 settembre 2011

Windows 8: prime impressioni dalla Developer Preview

La settimana scorsa, Microsoft ha rilasciato la Developer Preview del suo prossimo sistema operativo, che si chiamerà molto probabilmente Windows 8. Questa versione è ancora lontana da quella che sarà la release finale, in effetti non è neanche una beta, ma è dedicata agli sviluppatori, in modo che inizino a conoscere meglio il nuovo “habitat”. Il ritmo di sviluppo di Microsoft (ma la stessa cosa vale per tutte le grandi software house) è molto elevato, pensate che Windows 8 è in fase di sviluppo da giugno 2009, ancor prima dell’uscita di Windows 7!

La versione da me provata è una 32bit senza kit di sviluppo, installata su netbook Asus EeePC 1101HA. Essendo un sistema orientato alla compatibilità con i tablet infatti, ho preferito testarlo su di una macchina avente caratteristiche hardware non molto superiori (anzi forse inferiori) alle famose tavolette.
Una volta avviato il PC dalla chiavetta USB contenente l’immagine di windows, la schermata d’installazione apparsa è pressoché identica a quella di Windows 7. Dal momento in cui ho lanciato l’installazione fino a quando è comparsa la schermata di configurazione, il sistema ha impiegato in tutto solo 12 minuti!
La prima cosa da segnalare è il fatto che questo nuovo Windows permette già in fase di setup l’integrazione con Windows Live ID, per cui se avete un account MSN o Xbox Live potrete sincronizzarlo comodamente con il SO.


Una volta completata la semplicissima fase di configurazione iniziale, occorrono altri 2-3 minuti per avere finalmente il sistema perfettamente operativo.
Il desktop di Windows 8 risulta particolarmente famigliare: praticamente è IDENTICO a quello di Windows 7. L’unica differenza nell’interfaccia grafica è rappresentata da “Ribbon”, ovvero la nuova bassa dei menu presente da Office 2007 che ora ha preso il posto di quella classica in tutto Windows.

Schermata di sblocco, bisogna trascinarla in alto
Ecco come appare il desktop "classico"

Le somiglianze però finiscono qui, infatti una volta avviato il tasto Start ecco comparire la famosa interfaccia “Metro”, lanciata per la prima volta su Windows Phone e ora portata in ambiente desktop.

La famosa interfaccia "Metro", in questa preview sostituisce il menu Start

Questa versione preview è ovviamente abbastanza “spoglia”, troviamo infatti qualche applicazione (per lo più giochi), Internet Explorer 10, lo Store (non ancora attivo),  il Pannello di Controllo e il ritorno al desktop. Le applicazioni aperte da un’interfaccia, funzioneranno all’interno dell’ambiente grafico dove il programma è stato lanciato. Se apriamo IE10 dalla “Metro” per esempio, esso funzionerà con lo stile “Metro”, con la barra degli indirizzi in basso e un’anteprima delle finestre in alto (menu attivabili con il click destro del mouse su PC), stessa cosa vale per il pannello di controllo, ma NON per il Windows Explorer, che verrà lanciato in ambiente desktop classico.

Nuovo look anche per il pannello di controllo, è possibile visualizzare anche quello classico

Ovviamente i vari elementi dell’interfaccia Metro potranno essere spostati e ridimensionati, proprio come è oramai consuetudine in tutti i tablet e smartphone. Altra prerogativa è il fatto che le applicazioni lanciate dalla nuova interfaccia non vengono mai chiuse, ma una volta richiamata la “home” (cioè il tasto Start), queste vengono messe in uno stato di sospensione. Le applicazioni non impegneranno la CPU durante lo stato di sospensione, ma una volta avviate nuovamente,  esse si apriranno istantaneamente senza dover aspettare che il SO le carichi. Insomma, proprio come accade con le applicazioni degli smartphone.


Passiamo ora a parlare della gestione del sistema: oltre alla sopraccitata Ribbon, possiamo trovare novità anche nel task-manager: al primo avvio ci apparirà soltanto la lista delle applicazioni aperte e in background, ma andando a cliccare sul pulsante per mostrare tutti i dettagli si aprirà un mondo!
Innanzitutto troviamo una schermata precisa e ordinata che mostra la lista dei task dove, con un semplice click sul tasto “+” posto al fianco di ognuno di essi, è possibile visualizzare la lista dei servizi associati al processo, senza dover quindi andare a ricercarli manualmente, con il rischio di sbagliare.
Nella seconda scheda possiamo ammirare una serie di grafici molto dettagliati, che mostrano l’andamento della CPU, della RAM, del disco e del traffico in rete. Nella scheda App History abbiamo la cronologia delle applicazioni aperte in passato e, come ultima novità, abbiamo la gestione delle applicazioni in startup direttamente nel task-manager.

Un task-manager molto più dettagliato...
...possiamo controllare dettagliatamente l'utilizzo di ogni componente del sistema o sapere se il nostro PC si vede con degli sconosciuti se lo vogliamo 

Il file manager non cambia rispetto a windows 7, possiamo notare però una gestione dei trasferimenti molto più dettagliata e organizzata. Un grafico ci mostrerà l’andamento del transfer-rate mentre, copiando più file, avremo un’unica finestra di trasferimento, il tutto gestito da un unico task. Di questa ottimizzazione del sistema di trasferimento infatti, Microsoft parlò poco prima della presentazione.


Grafici ovunque, anche nel trasferimento file


Ovviamente non si può dare alcun giudizio a questo Windows 8, infatti è soltanto una release palesemente INCOMPLETA, nonché un misto poco azzeccato tra interfaccia Metro e classica. Possiamo quindi dire che si tratta solo di una rapida occhiata, che ha messo in mostra come Microsoft si sia concentrata maggiormente sull’interfaccia grafica per rendere il sistema facilmente utilizzabile su tablet.
Non ho voluto entrare meglio nei dettagli perché non avrebbe senso con una release così acerba, non ci resta che attendere con calma che finiscano per bene il lavoro per avere una idea di come realmente sarà il nuovo Windows.



PS: per questioni di praticità, le immagini provengono da una versione virtualizzata.

martedì 13 settembre 2011

La Carica degli Ultrabook


Se dovessimo aprire un vocabolario inglese del 1950 e lo confrontassimo con uno del 2011, troveremmo moltissime differenze e termini aggiunti. Stessa cosa vale anche per la lingua italiana certo, ma forse in maniera inferiore.
La stragrande maggioranza di questi termini hanno molto probabilmente avuto origine con l’avvento delle tecnologie informatiche. Internet, Web, Browser, Notebook e tutta la famiglia di vocaboli informatici hanno riempito pagine e pagine di vocabolario, e il trend (notare il termine) non accenna affatto ad arrestarsi. Dopo gli ultimi arrivi “Netbook” e “Talbet” ecco arrivare “ULTRABOOK”.

Terminologia a parte, stiamo parlando di portatili dallo spessore ridotto, anzi RIDOTTISSIMO.
Inizio l’intervento parlando ancora una volta di Apple, azienda senza dubbio caratterizzata da un discutibile modo di fare business, ma dalle ottime capacità di reinventare e di progettazione. Proprio da queste capacità, nel 2008 è stato presentato al mondo quello che ritengo uno dei  migliori prodotti tecnologici degli ultimi anni: il MacBook Air. Questo gioiello di ingegneria non è altro che un notebook (pardon, un MacBook, anche se i MacBook a parte il software non hanno nulla di diverso da un notebook), dallo spessore di poco maggiore di quello un quaderno.
A mio modo di vedere le cose, questo è quello che definisco PROGRESSO: il computer portatile deve essere appunto il più portatile possibile e il MacBook Air sposa esattamente questa tesi. Per uno studente o un uomo d’affari una cosa del genere è manna dal cielo: ingombro e peso ridotti all’osso, senza dover rinunciare a tastiera, connettività e potenza (insomma non è un tablet).
Complimenti Apple dunque, tuttavia il problema dei prodotti della mela morsicata è sempre lo stesso: il prezzo! Nonostante lo ritenga il prodotto Apple meno sovrapprezzato, per avere un dispositivo del genere bisogna sborsare non meno di 1300€*. Nonostante tutto le vendite sono più che soddisfacenti, in effetti tutto ciò che esce dai laboratori Apple vende bene.

Steve Jobs mostra al mondo la sua "creatura"....e sorride pensando ai soldi che gli farà fare

Da quando Apple strinse un accordo con Intel, tutte le piattaforme dei computer della mela sono realizzate da Intel. Quest’ultima, facendo atto delle buone vendite del gioiellino Apple, ha deciso di fornire linee guida per la costruzione di soluzioni simili anche ad altre aziende. Ultrabook quindi è una specifica costruttiva di Intel per la produzione di notebook ultrasottili: possiamo vederla come una scommessa fatta dal colosso di Santa Clara. Intel nel 2012 prevede che il 40% degli acquirenti di una soluzione portatile sia orientato verso una piattaforma ultrabook. Gli analisti del colosso delle CPU non sono affatto stupidi, infatti hanno scelto come terreno di test nientemeno che Apple, che ovviamente più di ogni altra azienda accoglie l’innovazione.

Proprio come le soluzione netbook (che stanno via via sempre più scomparendo grazie alla diffusione dei tablet), l’hardware degli ultrabook delle varie marche è pressoché identico: troviamo infatti processori aventi architetture Sandy Bridge “low voltage” , unità SSD e (purtroppo) una connettività abbastanza limitata, a causa del design “estremo”, che costringe i produttori a limitare le connessioni esterne a sole 2 porte USB e al massimo un altro paio di porte, siano esse HDMI o Ethernet.
Nei primi giorni dopo la presentazione, Intel avvertì i partner dicendo loro che le soluzioni Ultrabook avranno successo SOLO se saranno vendute ad un prezzo inferiore di quello dell’Air. Le aziende hanno accettato volentieri il consiglio, infatti dai primi prezzi comparsi nei listini, queste soluzioni dovrebbero essere vendute attorno agli 800€.

Una slide di Intel che mostra i punti di forza dei nuovi portatili ultrasottili

Insomma ci troviamo di fronte ad uno scenario già visto diverse volte: Apple reinventa una soluzione (lo ha fatto ultimamente con iPhone e iPad) e la concorrenza è costretta a buttarsi nello stesso settore. Vista così sembra una cosa molto triste, possibile che solo un’azienda riesce a tirare fuori qualcosa di nuovo?
In realtà moltissime aziende propongono novità, basti pensare ai netbook, ai telefoni con tastiera slider, ma anche gli stessi smartphone full-touchscreen  (come Sony Ericsson P800). Tuttavia nessuno riesce ad avere lo stesso impatto che hanno i prodotti Apple, forse perché l’azienda di Cupertino riesce a trovare il momento giusto (dato dalla tecnologia disponibile) per tirare fuori il nuovo “iCoso” di turno, oppure semplicemente perché Apple è una vera e propria moda, non importa cosa faccia e come lo faccia, sarà sempre “figo”.

Una catasta da 4000€ alta meno di un palmo

Fatta questa premessa arrivo al punto: riusciranno questi Ultrabook a competere con lo strapotere Apple? Oppure saranno soltanto un trampolino di lancio per il MacBook Air, portando le sue vendite ai livelli di iPad e iPhone? La scelta spetta a voi.

* Parlo del modello 13” dato che la concorrenza, gli Ultrabook appunto, offre portatili dalla medesima diagonale.


martedì 6 settembre 2011

Grafene: il candidato numero uno per sostituire il Silicio


L'elettronica, l'informatica e le telecomunicazioni sono probabilmente le tecnologie che hanno subito l'evoluzione più rapida nella storia dell'uomo. Se pensiamo a 60 anni fa infatti, un elaboratore non più potente di una calcolatrice scientifica arrivava ad occupare la dimensione di una stanza, fatto da valvole, schede perforate e unità disco da 5 Mb grandi come il tronco di una quercia secolare e alte un paio di metri. Poi arrivò il transistor, il componente fondamentale di tutta l'elettronica digitale, che rimpiazzò presto le valvole (ma non in campo audio dove tutt'oggi sono ricercate). Le fastidiose matasse divennero quindi eleganti tavolette con circuiti stampati e componenti saldati.
Ma il vero punto di svolta avvenne però con il SILICIO. Le proprietà di questo semiconduttore infatti, permisero la creazione di circuiti integrati. In un centimetro quadrato si riuscirono a far entrare centinaia di transistor, poi migliaia, poi milioni e oggi centinaia di milioni. La crescita è così elevata che Gordon Moore, uno dei fondatori di Intel, ipotizzò che il numero di transistor all'interno delle CPU sia destinato a raddoppiare ogni 18 mesi. Questa osservazione è ritenuta così “sacra” e importante da essere chiamata “Legge di Moore” ed è il motto a cui fa fede Intel ogni volta che sviluppa un nuovo processo produttivo.

Un wafer di silicio. Pensate che in ognuno di quei chip pronti da tagliare ci sono milioni e milioni di transistor!
Moore tuttavia non aveva previsto una cosa (oppure lo aveva fatto ma nessuno lo aveva preso sul serio): prima o poi bisognerà fermarsi. Infatti ci si sta avvicinando sempre di più alle dimensioni dell'atomo, oltre non è possibile andare. Oggi siamo in un periodo in cui non è più possibile tenere fede in maniera rigorosa alla “Legge di Moore”. I processi produttivi diminuiscono sempre di più, attualmente ci troviamo a 28nm, ma i consumi non diminuiscono e le prestazioni non raddoppiano, contraddicendo anche l'altro aspetto della legge che prevede anche un raddoppio di prestazioni ogni 18 mesi.
Non solo le ridottissime dimensioni dei transistor rendono sempre più complicato il processo di realizzazione, ma i problemi di diafonia dovuti dalla vicinanza dei componenti diventano sempre più difficili da gestire.* Se già tra due piste di rame poste ad un millimetro di distanza si possono creare fenomeni di accoppiamento elettromagnetico, figuriamoci se queste piste si trovano a poche decine di nanometri.
Per ridurre gli effetti di capacità ed induttanze parassite si ricorrono a piste di massa intermedie e filtri di controllo, che non fanno altro che occupare sempre più spazio all'interno del chip: ecco perché le prestazioni non raddoppiano e i consumi non calano.
Del resto i limiti del silicio hanno anche portato alla fine della “corsa ai megahertz”, portando avanti nuove idee di sviluppo, come le architetture multi-core e APU.

Il silicio quindi sta invecchiando, i primi capelli grigi e le rughe cominciano a farsi vedere: c'è bisogno di un successore al trono. Dopo anni di ricerca (fortunatamente all'estero ci investono), tutt'ora ancora in corso, il candidato ideale sembra essere proprio questo GRAFENE.
Come è facilmente intuibile dal nome, questo materiale è ricavabile attraverso procedimenti chimici dalla grafite. La cosa che lo rende così speciale è il forte legame tra gli atomi che la compongono, in grado di mantenere una solidissima struttura cristallina. Addirittura si pensò di sfruttare questa caratteristica per trainare carichi pesantissimi utilizzando barre di grafene, tanto per fare un esempio per sollevare un ascensore pieno basterebbe un filo di grafene non più grande di un filo di nylon. Questa solidità dei legami tuttavia può essere più intelligentemente sfruttata per creare strutture piccolissime, dal momento che riuscirebbero a reggere senza collassare molto meglio di altri materiali. Quanto piccole? Come UN ATOMO.

Una struttura di nanotubi di grafene, simulata in computer grafica ovviamente
Esatto, è possibile realizzare “fogli” di grafene dallo spessore di un solo atomo. Ma a che serve direte voi.
La risposta è semplice: quando un elettrone scorre in un conduttore, questo ha una certa probabilità di scontrarsi con un nucleo di un atomo di rame e “schizzare” fuori dal conduttore, proprio come una palla da biliardo. Più atomi di conduttore ci sono, più è alta la probabilità che un elettrone si scontri, quindi più è alta la resistenza parassita. Se si riesce a ridurre lo strato conduttore ad un solo atomo, la resistenza diviene bassissima, perché la distanza tra nucleo ed elettroni è molto grande rispetto alla dimensioni delle cariche, l'atomo infatti è per la maggior parte vuoto.
Avremmo quindi dei circuiti che si comportano in maniera quasi IDEALE. Molto di quello spazio occupato da circuiti per correggere i problemi creati dai limiti del silicio verrebbe utilizzato per altri transistor. La minore resistenza inoltre si tradurrebbe in un minore riscaldamento del chip, dal momento che il calore si genera proprio grazie alle resistenze parassite che trasformano parte dell'energia sprigionata dall'urto in calore.

Il superamento di questi limiti potrebbe favorire un ritorno allo sviluppo concentrato sull'incremento della frequenza di clock. Un gruppo di ricerca di IBM è riuscito addirittura a ricongiungere una frequenza di 100MHz con dei transistor realizzati in grafene.
Ma grafene non vuol dire solo CPU: con questo straordinario materiale si sta lavorando (in termini di ricerca) per la realizzazione di memorie sempre più capienti e veloci, per non parlare delle batterie, che sono a tutti gli effetti la rogna maggiore dei produttori di dispositivi mobile.
Altro settore dove trova posto questo materiale sono le telecomunicazioni: tutti i vantaggi portati dalle comunicazioni ottiche vengono ad annullarsi se le si utilizzano per brevi distanze, poiché ad un certo punto i “dati ottici” devono comunque essere convertiti per lavorare su circuiti elettronici. Utilizzando materiali “normali”, questa conversione si traduce in una enorme perdita di tempo. Le alte velocità dei circuiti al grafene invece potrebbero riuscire a colmare gran parte delle latenze, garantendo alte velocità anche nei punti di scambio.
Le potenzialità per diventare il sostituto ideale del silicio ci sono tutte, ovviamente per arrivare alla fase di sviluppo saranno necessari ancora anni di ricerca, ma questo è normale, avviene per ogni nuova tecnologia “rivoluzionaria” che si sviluppa. La parte più difficile però sembra essere superata, ovvero quella di trovare la strada giusta, per il resto basta camminare ancora e ancora.


*La maggior parte del tempo impiegato da un elaboratore nel processare dati, viene “sprecato” per il trasporto dell'informazione attraverso i BUS.


mercoledì 31 agosto 2011

Microsoft e Apple pensano al sistema operativo unico?


Come ho spesso parlato su questo blog, la sottile linea che separa i computer dai dispositivi mobile sta sempre più scomparendo. Le aziende che prima producevano PC desktop o notebook stanno spostando i loro volumi di vendita verso smartphone e tablet, seguendo il cambio direzione intrapreso per primo da Apple, proprio come un branco di pesci in un oceano. Del resto quando si parla di centinaia di milioni (se non miliardi) di fatturato si fa di tutto.
Malgrado Acer preveda un calo delle vendite di tablet una volta passata la moda, Microsoft e Apple non sembrano pensarla così. Cerchiamo di capire in che modo i due colossi della Silicon Valley affronteranno la situazione.

Microsoft non è certo una novellina nel realizzare sistemi operativi per dispositivi mobile. Già nel 1996 sviluppò Windows CE, un SO destinato a PDA e Palmari (i tablet di una volta) nonché ai Pocket PC. Successivamente l’evoluzione di questo sistema ha determinato l’uscita della ben più nota famiglia Windows Mobile. Sfortunatamente però, Windows Mobile non ha mai brillato nella categoria smartphone, a causa del fatto che il suo kernel (derivato direttamente da CE) non è mai stato adeguato allo scopo. Del resto la politica di Microsoft è sempre stata quella di portare avanti il kernel finché si può.
Peccato però (in realtà è una fortuna) che la concorrenza non sta a dormire: se il marchio Windows tra i computer riesce a sopperire alle mancanze del SO, nel mondo della telefonia non è andato affatto così.

Gli antenati dei nostri tablet, basati su Sistema Operativo Windows Mobile
Symbian infatti è stato il leader incontrastato fino all’arrivo di iPhone, che ha decisamente scosso il mercato con l’introduzione di iOS. Nacquero dunque Android e solo successivamente Windows Phone 7 che, insieme ad iOS, sono partiti all’inseguimento di un Symbian destinato a quanto pare ad essere sorpassato (Android sembra essere in vantaggio).
Parliamo dunque di iOS: a differenza di Microsoft, quando Apple ha presentato nel 2007 il SO del proprio iPhone, questo si è dimostrato decisamente migliore della concorrenza (tutt’ora è ai vertici della categoria). Questo perché è stato pensato e sviluppato appositamente per l’ambito smartphone e per girare su un solo ed unico dispositivo. È nella politica di Apple del resto sviluppare software in grado di girare solo sul proprio hardware.

Se fino a poco tempo fa i computer incrementavano la loro potenza anno per anno in maniera esponenziale, oggi questa tendenza si è notevolmente ridotta, probabilmente per merito (anzi per colpa) delle console da gioco e dei dispositivi mobile, che hanno ridotto il PC al solo utilizzo da ufficio o per cosette varie che non permettono di fare gli altri dispositivi (ovviamente sto parlando di utenti medi che navigano e giocano). Al contrario gli smartphone e i tablet sono ogni anno sempre più potenti, quasi il doppio, e posseggono un parco software da poter permettergli di fare la maggior parte delle cose che fa un utente medio.

Asus Transformers e Acer Iconia Tab: gli anelli mancanti tra computer e tablet
Per quanto riguarda i tablet, mentre Android e iPhone forniscono per questi dispositivi il medesimo SO che utilizzano sugli smartphone, lo stesso non si può dire di Microsoft. Il suo cavallo di battaglia infatti, a differenze di Google e Apple, non è il SO mobile, ma quello per PC: Windows 7. Tuttavia i pochi tentativi di portare questo SO su tablet (come su HP Slate) si sono rivelati un fallimento. Windows Phone del resto è come un secondo pilota nella scuderia Microsoft, non reggerebbe il peso della competizione su tablet. Ecco quindi che la direzione intrapresa dall’azienda di Redmond è quella di rendere il loro prossimo Windows completamente adattato al mondo dei tablet (Aria fresca dalle finestre). Computer e tablet adopereranno quindi lo stesso SO, arrivando in questo modo quasi a cancellare le differenze tra i due mondi.

Se la scelta di Microsoft è quindi quella di trasferire il proprio sistema su un'altra piattaforma, Apple probabilmente sta pensando di UNIFICARE i sistemi che già detiene su entrambe le soluzioni.
L’ultimo aggiornamento del proprio SO desktop, OSX Lion, ha infatti portato alla luce novità che tendono a rendere molto simile OSX ad iOS. Il launchpad per esempio è stato completamente rivisto per assomigliare (anzi rendere praticamente uguale) al menu delle applicazioni di iOS. Anche i gesti del touchpad sono stati stravolti per assomigliare a quelli compiuti sugli schermi touchscreen, come ad esempio il pinch-to-zoom e lo scorrimento del testo non invertito (ricordo che con il mouse se scorriamo la rotellina verso il basso la pagina va in alto, e viceversa).

Il Launchpad adottato in OSX Lion: chi sa se Apple farà causa a se stessa per la somiglianza con iOS
Non so quanti anni ci vorranno ma presto l’integrazione software sarà completa. A quel punto non so se avrà ragione o meno Acer, ma di certo i tablet non smetteranno tutto d’un tratto di esistere.
Quello che dobbiamo sperare tuttavia è il contrario, ovvero che i computer non diventeranno delle mosche bianche in un mondo pieno di tablet e smartphone. Ma forse sono un po’ troppo pessimista.


giovedì 25 agosto 2011

Fibra Ottica: perché da anni è ferma ai box?


Basta avere un minimo di interesse per il mondo dell’informatica per avere almeno sentito nominare la fibra ottica. Quello che invece può essere sconosciuto è il COSA sia.
Immaginiamo di tornare indietro di 10 anni, dove per andare in rete bisognava sfruttare la “preistorica” connessione conosciuta come 56K, o al massimo la (poco) più veloce ISDN: per noi sarebbe l’inferno! Abbonamenti “Flat” dai prezzi esorbitanti, velocità di download e upload esasperanti, il tutto condito dall’impossibilità di poter effettuare chiamate dal telefono fisso, “occupato” dalla linea 56K. L’attuale ADSL è insomma una manna dal cielo, che ha reso possibile, attraverso velocità di connessione molto maggiori, la navigazione web alla portata di tutti. Tutto ciò è stato possibile sfruttando lo stesso mezzo di propagazione, ovvero quel vecchissimo doppino di rame, presente nelle nostre case da sempre.

Immaginiamo ora uno scenario futuro, ovvero computer e dispositivi in grado di immagazzinare dati e di funzionare sfruttando solamente lo spazio web, in modo da ridurre notevolmente i costi dell’hardware (Ma il cielo è sempre più Cloud), oppure immaginiamo case sprovviste di antenne, grazie al fatto che la TV passa direttamente dal web, videoconferenze in tempo reale ad altissima risoluzione, telemedicina, contenuti on demand e chi più ne ha più ne metta. Tutto ciò potrebbe essere possibile grazie a questa fibra ottica, ovvero un mezzo di propagazione che sfrutta onde elettromagnetiche a frequenze ottiche, frequenze enormemente maggiori rispetto a quelle che viaggiano nei doppini e che quindi permetterebbero un trasporto di dati a velocità MOLTO maggiori.

Una mappa approssimativa della diffusione della banda larga.
Questo è possibile grazie al fatto che le onde ottiche (fotoni) viaggiano confinate tra strati dielettrici (in genere materiali vetrosi e/o polimerici) e non nel rame. Non si tratta quindi un riadattamento del mezzo tramite opportune modulazioni, come nel caso dell’ADSL, ma di una tecnica completamente nuova, che richiede l’ausilio di un NUOVO mezzo di propagazione avente una banda ENORME.
Perché dunque non abbiamo ancora la fibra ottica?
La domanda in realtà è posta in maniera sbagliata. Infatti bisognerebbe chiedersi perché nessuno INVESTE sulla fibra ottica…e per nessuno si intende soprattutto Telecom, la proprietaria della rete di accesso, ovvero la ramificazione dei collegamenti tra tutte le case e le centrali di commutazione, uno dei più grandi tesori nazionali. In rete molti infatti indicano Telecom come il cattivo della situazione, che preferisce continuare a tenere alti i prezzi degli abbonamenti ADSL e a mantenere il canone piuttosto che iniziare ad investire qualcosa per la futura generazione del web.

Struttura interna di un cavo contenente centinaia di fibre ottiche
Descrivere la situazione in poche righe è impossibile, perché nel nostro paese, come spesso accade, la situazione è abbastanza ingarbugliata, a causa del fatto che i provider non riescono a mettersi d’accordo su chi debba fare gli investimenti e in che percentuale. La volta che ci sono andati più vicino mancava solo Telecom, che in una cosa del genere non poteva mancare.  I gestori sono arrivati a dire perfino che Google debba partecipare all’investimento per la fibra in Italia, a causa dell’elevato traffico che genera.
Tuttavia non riterrei Telecom e gli altri gestori come unici responsabili, infatti in tutti questi anni neanche i GOVERNI che si sono alternati hanno cercato in qualche modo di portare un po’ di progresso nel nostro Paese, preferendo alla fibra follie come il ponte sullo stretto (opera tecnicamente irrealizzabile), treni ad alta velocità e auto blu. Tutte cose che hanno rientri economici enormemente inferiori rispetto al denaro generato da una nazione avente accesso alla banda larga ovunque.

Se pensate che la fibra abbia un costo elevato vi sbagliate! Le fibre ottiche per telecomunicazioni hanno costi veramente bassi. Giusto a titolo di esempio, un paio di anni fa la mia università comprò 5Km di fibra per i laboratori: il produttore (se non sbaglio Pirelli) non fece pagare all’università neanche un euro!
La spesa maggiore da affrontare è costituita infatti dal costo dei lavori di scavo e sotterramento della fibra. Il nostro paese infatti non è particolarmente propenso a questi lavori: mentre in altre nazioni abbiamo principalmente strade “normali”, l'Italia abbonda di piazze e luoghi storici, che renderebbero impossibili (o comunque particolarmente costosi) i lavori di scavo. La fibra infatti, a differenza del rame, non può curvarsi più di tanto e richiederebbe percorsi alternativi. Immaginate di dover cablare la zona dei Fori Imperiali a Roma, follia pura…
I provider dunque sono IN PARTE giustificati sotto questo aspetto.

Oggi le fibre ottiche sono semplici da realizzare e costano pochissimo
Il cablaggio dell'intera rete di accesso non è dunque la soluzione, si potrebbe però “avvicinare” la fibra alle abitazioni attraverso un ricablaggio dei tratti che vanno dalla centrale agli armadi che abbiamo sotto casa. Il rame infatti permette elevate velocità (anche sui 100Mbps) se i segnali viaggiano su brevi distanze. Portando la fibra in ogni isolato, non in ogni casa quindi, potremmo permetterci di viaggiare a velocità elevatissime sfruttando lo stesso doppino che da decenni compie il suo egregio mestiere. Telecom e gli altri in questo caso non sono giustificati ora, la banda larga è un investimento di primaria importanza, molti paesi industrializzati lo hanno già capito da tempo, è bene che cominciamo a farlo pure noi, altro che ponte sullo stretto, altro che TAV, altro che digitale terrestre.



domenica 21 agosto 2011

Guerra dei brevetti: i soldi non bastano mai


Nei primi anni 2000, negli Stati Uniti si è registrato un numero insolitamente elevato di brevetti, che riguardavano principalmente aspetti tecnologici/informatici. Gli autori di questi brevetti erano piccole aziende e privati, che non hanno mai realizzato dispositivi che li sfruttassero: erano i cosiddetti “Troll dei brevetti”. Qualche anno fa infatti scoppiò una serie di denunce contro tantissime aziende accusate di violare anche aspetti di infima importanza. Per chi come me seguiva i network di tecnologia, non era difficile imbattersi in notizie che menzionavano cause di sconosciuti ai danni di famose aziende.

La maggior parte di esse si conclusero in un nulla di fatto, del resto alcune accuse erano veramente ridicole, ma fatto sta che da quel momento le grandi aziende iniziarono a loro volta a brevettare di tutto. Dal design alle interfacce grafiche, si era riaperta una seconda ondata di brevetti, questa volta però da parte delle aziende. Mi ricordo addirittura che Google brevettò il layout della sua pagina, logo al centro e barra di ricerca sotto, faceva quasi ridere la cosa.
All’inizio si pensava che la causa di tutto questo fermento fosse il fatto che i colossi dell’informatica non volevano più avere i bastoni tra le ruote come era accaduto poc’anzi, un modo per avere le spalle coperte insomma. Tuttavia oggi ci si può rendere conto che il motivo era ben diverso: i “troll” hanno dato un’ottima idea alle aziende per poter fare profitto anche sfruttando i tribunali!
Se la cosa era triste da parte dei soggetti privati, ora che sono entrati anche questi colossi nel giro la cosa diventa alquanto schifosa da parte loro, in quanto è uno squallido tentativo di disfarsi della concorrenza e poter fare ancora più soldi di quanti già ne abbiano. 

Fare soldi alle spalle degli altri è roba da "Troll"

Il sistema operativo Android, proprietario di Google (che ultimamente sto citando un po’ troppo spesso) è una delle vittime più illustri di questo giro. Questo sistema operativo (spacciato dall’azienda di Mountain View come Open Source dimostratosi in realtà molto poco “open”) ha subito un “attacco giuridico” da parte di Apple, Oracle e Microsoft. In particolare quest’ultima chiede, a causa di violazioni di diversi brevetti di loro proprietà, 15 dollari per ogni dispositivo Android venduto. Del resto Microsoft è abituata a fare soldi con il lavoro degli altri (chi ha detto DOS?).

Oracle è un’azienda che opera soprattutto in campo server per la gestione dei database, ma è conosciuta anche in ambito Desktop per OpenOffice, VirtualBox ed il famoso Java. In particolare Oracle sostiene di aver offerto a Google la possibilità di adoperare la piattaforma  Java (su licenza) sul proprio SO, tuttavia G. avrebbe rifiutato ed ha sviluppato una piattaforma proprietaria. Ecco pare che questa violi diversi brevetti Java. Se le cose sono andate veramente così in questo caso Google se l’è cercata.

Il pochissimo tempo, Android è diventato il SO mobile più utilizzato (dopo Symbian): questo non piace a Microsoft e Apple.
Infine c’è Apple, azienda di cui purtroppo non riesco a parlare bene a causa del suo modello di business, mirato a distruggere la concorrenza e a far pagare ai consumatori più del dovuto. L’azienda di Cupertino è senza dubbio LA PIU’ ATTIVA nel settore brevetti. In passato ha sempre accusato Microsoft di aver copiato la loro interfaccia grafica, quando in realtà ENTRAMBE le aziende l’hanno copiata alla Xerox.
Oggi però si è specializzata meglio in questo particolare modo di fare profitto, infatti si è fatta carico di numerose denunce contro diversi produttori di telefoni Android, in particolare HTC, Motorola e Samsung, a causa della violazione di diversi brevetti.
La “lotta” giudiziaria più serrata è ovviamente contro Samsung, detentrice della seconda posizione tra le aziende che producono cellulari (la prima è Nokia). Apple ha denunciato l’azienda Sud Coreana in quasi tutti gli stati del mondo, accusandola di aver prodotto dispositivi simili a iPhone e iPad. Ultimamente ha ottenuto persino una vittoria in Europa, dove ha impedito le vendite del Galaxy Tab in tutto il vecchio continente (zona ridotta poi alla singola Germania a causa di una falsificazione degli atti di accusa da parte di Apple sulle dimensioni effettive del Galaxy).

Apple agirà pure in maniera scorretta nei confronti della concorrenza, però Samsung a volte non è che abbia così tanta...originalità
Questo caos giudiziario ha portato le aziende ad acquistarne altre, non tanto per differenziare o aumentare la produzione, ma per i brevetti e le proprietà intellettuali che ne derivano. Non c’è tanto da stupirsi dunque se l’acquisto di Motorola da parte di Google avvenuto qualche giorno fa ha portato nelle “tasche” di G. quasi 20000 brevetti, ed è solo una delle tantissime aziende che Google ha assorbito. Chi sa che un giorno non faccia quello che sta facendo oggi Apple e (in misura minore) Microsoft.

Il brevetto è un utile strumento per difendere le proprie idee ed evitare che altri possano copiarle e fare profitto alle spalle di altri. Come in tutte le cose belle però c’è qualcuno che esagera, spinto dalla mania ossessiva di fare sempre più soldi, sfruttando questo strumento come non si dovrebbe, brevettando cose “inbrevettabili” (forme rettangolari per i dispositivi o aspetti più che secondari dei software) che non fanno altro che BLOCCARE il progresso tecnologico, in maniera simile a quanto è accaduto con le automobili ad idrogeno, già pronte per la realizzazione ma mai realizzate. In fondo queste aziende non sono molto differenti dalle industrie petrolifere.



venerdì 5 agosto 2011

GPGPU: schede video che vogliono essere CPU

Nonostante il settore desktop computer sia sempre più una minoranza, a causa del fatto che gli utenti preferiscono orientarsi più su notebook, tablet, smartphone e quant’altro, i maggiori produttori di schede video discrete, ovvero ATI (ora divenuta AMD) e nVidia continuano imperterriti a sfornare schede destinate al settore desktop sempre più potenti, facendosi una feroce concorrenza senza sosta.
Questo perché il loro obiettivo non è soltanto fare profitti in QUEL settore (costituito soltanto da una minoranza degli utenti), ma anche quello di mettersi in mostra, sfoggiando le loro ultime tecnologie, in modo tale che i produttori (anche in altri settori) siano più orientati ad adoperare una soluzione piuttosto che un’altra.

Le schede video sono nate in ambito gaming, dove l’aumento del numero dei poligoni e l’aumento degli effetti degli scenari 3D cominciarono a mandare in crisi la CPU, che già si doveva occupare di far girare il sistema operativo e di creare le cosiddette “primitive”, ovvero i modelli che vanno a creare la scena 3D. La fase che trasforma questi modelli in pixel è detta “rasterizzazione”, ed è la fase più pesante in termini di calcoli. Ecco quindi la necessita di realizzare una unità di calcolo a parte, progettata e realizzata solo per eseguire la rasterizzazione.

Le storiche avversarie nel settore GPU

Il resto dalla storia è abbastanza nota, schede video sempre più potenti e sempre più vicine, in termini di consumi e calore generato, alle CPU. Siamo arrivati a tal punto che, in termini di potenza “bruta”, una GPU è notevolmente più potente di una CPU, anche di fascia alta. Perché dunque ridursi a sfruttare questa potenza enorme solo per la grafica? In realtà il compito della CPU è notevolmente più complicato, perché non si limita a dover eseguire le stesse operazioni, come avviene nelle GPU.

nVidia, il maggior produttore di GPU (sebbene non sia in una situazione di predominio rispetto ad AMD, che detiene anch’essa una bella fetta di mercato), ha deciso oramai da anni di puntare forte su questo settore, con una tecnologia chiamata nVidia CUDA. AMD si è subito accodata proponendo anch’essa una propria soluzione, chiamata ATI Stream. Tuttavia, a causa della maggiore facilità d’implementazione di CUDA rispetto a Stream, gli sviluppatori sono tutt’ora maggiormente orientati  sull’utilizzo della soluzione nVidia.

Riuscire a creare GPU di dimensioni ridotte garantisce una maggiore resa a parità di area e un minore scarto dei chip esterni

Il primo passo compiuto dall’azienda di Santa Clara è stata l’acquisizione di Ageia, una società che aveva iniziato a produrre schede dedicate al solo calcolo della fisica. Successivamente, sfruttando le conoscenze acquisite da quest’ultima, ha iniziato prima un’implementazione a livello software (a partire dall’architettura G80) e infine una a livello hardware, rendendo l’architettura delle proprie GPU maggiormente orientata al settore GPGPU. Quest’ultimo passaggio non è stato proprio indolore, infatti mentre nVidia è da sempre bravissima a fornire driver di buona qualità per i propri prodotti, in ambito hardware non è mai riuscita a surclassare AMD (o meglio sono stati bravi gli ingegneri ATI ad essere sempre competitivi nonostante le minori risorse).

Se prima quindi nVidia non riusciva a sopravanzare nettamente l’avversario in termini di prestazione nel settore desktop, ora da quando hanno cominciato la progettazione dei propri chip grafici in modo da essere orientati anche al calcolo parallelo non destinato alla grafica, l’indice delle prestazioni per watt pende considerevolmente a favore di AMD/ATI. Per ottenere le stesse prestazioni infatti, nVidia è costretta a realizzare chip di grosse dimensioni (il che costituisce un grosso fattore di perdita economica), con consumi molto elevati. Inoltre, la progettazione del loro ultimo chip, con architettura denominata “Fermi” (in onore al fisico italiano), ha incontrato grosse difficoltà, che ha portato ad un notevole ritardo nel suo rilascio. Oltretutto pare che anche l’architettura “Kepler” (successore di Fermi) stia subendo ritardi.

Alla presentazione di "Fermi", nVidia mostrò una scheda FINTA perché non era ancora pronta!

AMD e nVidia quindi adoperano due approcci differenti per affrontare il settore GPGPU. Per capire in che modo, vediamo in che modo operano nel settore server.
La soluzione AMD è chiamata FireStream, sono schede basate su GPU realizzate per calcoli di grafica e successivamente, tramite implementazioni software, convertite al calcolo parallelo.
A fronte dei problemi sopracitati, le soluzioni nVidia Tesla sono schede sempre basate sulle stesse GPU che troviamo nelle schede video, ma queste ultime non sono progettate principalmente per la grafica ma sono realizzate in modo da  adeguarsi molto bene a questo settore, e le prestazioni in questo caso sono nettamente a favore delle Tesla.

Il GPGPU tuttavia non è rivolto soltanto al settore server, infatti le tecnologie CUDA e Stream di cui parlavo prima sono implementazioni destinate a computer desktop, che al momento vengono sfruttate soltanto da un numero limitato di programmi.
La sfida alle CPU è lanciata, Intel e AMD stessa hanno risposto proponendo processori con parte grafica integrata. Lo scenario hardware è sempre più in vena di cambiamento e purtroppo sempre più complicato. 


martedì 2 agosto 2011

Caro vecchio 3D che non sei altro

Il forte legame tra tecnologia e consumismo è forse l’aspetto più brutto di questo settore. Se da un lato le tecnologie portano ad un miglioramento della vita, dall’altro contribuiscono (se pure in misura molto minore di altre cose) alla devastazione del nostro pianeta a causa di volumi di produzione elevatissimi dati dal consumismo. Questo perché chi produce tecnologia lo fa, ovviamente, per un solo scopo: vendere.

Il profitto dato dall’innovazione tuttavia, può non bastare. È il caso per esempio delle major cinematografiche, le cui produzioni hollywoodiane portano nelle loro casse milioni di dollari, a fronte tuttavia di spese di produzione divenute anch’esse milionarie a causa dell’uso di effetti speciali sempre più complicati, di attori strapagati e di campagne di marketing stratosferiche. Sono queste le situazioni in cui è necessario INNOVARE, a causa del fatto che per mantenere costanti le entrate, le case cinematografiche devono investire milioni di dollari per ogni produzione, con il rischio continuo che una di queste possa rivelarsi fallimento.

Una volta appreso che il pubblico non è attratto più come un tempo dagli effetti speciali, dai gadget e dai videogiochi ispirati ai film (questi ultimi realizzati spesso e volentieri in maniera scandalosa), è stato il momento del cinema 3D.
Il 3D è quindi l’innovazione di cui parlavo? Assolutamente No.
La tecnica del cinema 3D è nata già negli anni 20, in pratica pochi anni dopo la nascita del cinema. Ha avuto la sua prima diffusione di massa a partire dagli anni 50. Successivamente, proprio come accade con la moda, è stato abbandonato e “riesumato” diverse volte, l’ultima delle quali in concomitanza con l’uscita del film “Avatar”.

Il film Avatar, oltre ad essere il promotore del rilancio del 3D, è il film che ha incassato di più nella storia


Ecco quindi che, dove non è stato possibile innovare ancora, hanno utilizzato una tecnica già ampiamente collaudata in diversi settori, ovvero il riutilizzo delle “vecchie” tecnologie. Questa volta tuttavia la cosa mi lascia un po’ perplesso, perché mentre per esempio con il touch screen (anch’esso una tecnologia vecchia rispolverata e rivenduta come nuova) ha apportato in un certo senso una innovazione, con l’utilizzo della tecnica capacitiva ad esempio, il 3D è stato ripreso pari pari, con i soliti scomodissimi e bruttissimi occhiali e l’effetto mal di testa per chi non è abituato. Come se non bastasse il 3D non viene offerto come un omaggio, magari per invogliare la gente ad andare al cinema, ma ce lo fanno PAGARE 2€ su ogni biglietto.

Ovviamente il 3D non si ferma solo al cinema, una volta rispolverata la tecnologia infatti i produttori di televisori si sono subito affrettati a lanciare sul mercato televisori 3D, con i rispettivi occhiali non compatibili con altre marche, giusto per far spendere al cliente il più possibile. Ai produttori di TV si sono affiancati Sony (con il supporto 3D per i giochi Play Station 3) e nVidia con 3D Vision.
Sarebbe tutto fantastico se non fosse per quei maledetti occhiali, che rendono la visione meno fruibile e più scomoda, inutile negare l’evidenza.

Esistono anche diverse indagini sul fatto che gli occhiali 3D siano dannosi alla salute, ritengo tuttavia che sia un allarme ingiustificato

Fortunatamente però, il successo di quest’ultima moda ha risvegliato anche i settori di ricerca di alcune aziende, che hanno cominciato già da tempo a progettare e sviluppare display 3D senza occhialini, insomma quello che mi piace definire il VERO 3D.
Esistono vari metodi per ottenere l’effetto, alcuni fastidiosi, altri meno.In effetti questa nuova tecnologia è ancora parecchio acerba, sarebbero necessari ulteriori anni di ricerca. Purtroppo però la gente è “affamata” di 3D, è stato quindi necessario lanciare sul mercato questi nuovi display, in modo da sfruttare l’occasione ghiotta.

Da dove cominciare dunque? La difficoltà di realizzare schermi 3D di grandi dimensioni e la tendenza di mercato verso i dispositivi mobile ha fatto ricadere la scelta proprio su questi ultimi. Gli esempi più famosi sono il Nintendo 3DS e l’LG Optimus 3D. Di questi due ho provato solo il primo e sinceramente non mi è piaciuto per niente.

Il Nintendo 3DS non sta riscuotendo il successo sperato, ma Miyamoto è sempre felice ed è questo che conta

Finita la “corsa ai pixel” è iniziata la “corsa al 3D”, la speranza è che si vada verso un abbandono di quegli orrendi occhialini e si sviluppino schermi con supporto 3D reale. Se occorreranno ancora anni non importa, le cose migliori sono quelle fatte bene.

PS: un ringraziamento allo staff de ilbloggatore.com per aver inserito il blog

sabato 30 luglio 2011

Anche l’interfaccia grafica fa la sua parte

L’altro giorno sono andato all’ufficio postale per fare un versamento. Quando sono entrato ho visto con grande piacere che c’erano solo 2 persone a fare la fila, per cui ho preso il mio biglietto tutto contento e mi sono seduto.

Con l'uso dei bigliettini le poste hanno eliminato le code, ma non hanno accelerato i tempi

Passano parecchi minuti ma il numero non cambiava, negli sportelli c’erano le stesse persone che c’erano quando sono entrato. Nella mia mente già sono partiti gli insulti agli operatori dell’ufficio postale. Molto spesso li definiamo “incompetenti” o “sfaticati”, affermazioni a volte lecite, ma non è stato questo il caso.
Infatti quando è arrivato il mio turno, ho appreso dall’operatrice che il modulo da riempire per il versamento è cambiato. “Va bè, pazienza” ho pensato, avranno aggiunto qualche clausola che ha costretto al rinnovo del layout del modulo, dal momento che è già tutto pressato in quel foglio A4.
Era dunque questa la causa del rallentamento dei servizi? Assolutamente no, Poste Italiane ha cambiato anche il software dei terminali degli sportelli (in realtà lo ha fatto parecchio tempo fa, solo che nella mia città l’aggiornamento è avvenuto da poco).

Gli operatori erano non tanto smarriti, dal momento che comunque immagino abbiano seguito un corso di aggiornamento per l’utilizzo del software, ma rallentati dai ristrettissimi spazi a disposizione delle righe entro le quali vanno immessi i dati del cliente per eseguire l’operazione. Delle centinaia di migliaia di pixel dei loro monitor, solo poche decine sono dedicate all’inserimento dei dati (ovvero a ciò che effettivamente deve fare l’operatore davanti al PC), il resto è tutto grigio. Spazi lasciati vuoti, a detta dell’operatore, per consentire l’inserimento futuro di nuove funzionalità, corrispondenti probabilmente ai nuovi servizi offerti dalle Poste.

Le Interfacce grafiche dei software destinati al pubblico sono anni luce avanti rispetto a quelle dei software aziendali

Chi sviluppa software per aziende di questa portata infatti non fa le cose a caso, una delle cose da tenere conto nella fase di progettazione di interfacce grafiche è la coerenza, ovvero il mantenimento di un aspetto grafico “standardizzato”, ad esempio utilizzando sempre lo stesso layout e le stesse posizioni degli oggetti, in modo che l’utilizzatore non sia costretto a ricercare ogni volta gli elementi di interesse ad ogni cambio di schermata. Per cui magari assegnare ad ogni funzione una certa posizione potrebbe aiutare, ma se il numero di queste funzione è particolarmente elevato, si crea uno scomodo addensamento, che potrebbe ad esempio compromettere la leggibilità e quindi l’usabilità.

L’interfaccia grafica potrebbe essere vista da un imprenditore (qualsiasi azienda essa sia) come un elemento di contorno, per cui un investimento in tale aspetto potrebbe sembrare ingiustificato. Del resto ad un’azienda che opera in un settore completamente differente da quello IT (Information Technology), cosa diavolo potrebbe interessare lo sviluppo dell’interfaccia grafica del software che utilizzano i dipendenti?
Ragionamento a mio avviso completamente sbagliato, tant’è vero che la coda all’ufficio postale che si è creata (leggasi minore produttività) è dovuta proprio ad un’interfaccia grafica poco adeguata.

Ma le poste sono solo un esempio, pensiamo per esempio ad un rappresentante costretto a dover prendere le ordinazioni dei clienti a mano, a causa della poca intuitività dell’interfaccia del palmare in dotazione. Inserire i dati sul momento porterebbe a grosse perdite di tempo, e ai clienti non piace aspettare. Non sono bravo ad inventarmi situazioni possibili, anche quest’ultimo esempio infatti è un CASO REALE che ho visto.

Bisogna tenere conto inoltre che potrebbero esserci dipendenti di una certa età che ancora lavorano in azienda, già il computer per loro è una sfida, figuriamoci se anche la GUI ci si mette contro

Finiti gli esempi andiamo al punto: la relazione tra aziende e IT è una cosa indispensabile nella quasi totalità delle imprese. Ma quanto e come investire in questo settore?
Si deve investire sempre il GIUSTO, infatti grossi investimenti potrebbero essere ingiustificati in molti casi, per questo è importante sapere COME investire, magari attraverso l’assunzione di gente qualificata in grado di valutare i costi effettivi per la realizzazione di un software, ma soprattutto in grado di valutare la qualità del lavoro svolto, evitando così danni economici. 

mercoledì 27 luglio 2011

The dark side of the Apple

Una schiera di persone, tutte rasate, vestite uguali e disposte in maniera ordinata di fronte ad un maxi schermo, mentre osservano e ascoltano le parole del Grande Fratello, che imprime nelle loro menti sentimenti di odio e allo stesso tempo di obbedienza.
Da lontano arriva una ragazza, vestita con abiti diversi, con lunghi capelli ed un grosso martello in mano che corre verso lo schermo. La polizia la insegue, ma non fa in tempo a fermarla: con un gesto atletico sferra il grosso martello contro lo schermo.

Non sono impazzito, quella che parrebbe un estratto del romanzo “1984” è stata invece la pubblicità del primo computer Apple, uscito proprio nel 1984. Il Grande Fratello non era altro che IBM, detentrice della maggior parte del potere nel mondo dell’informatica. Apple era la soluzione, il primo passo verso una “rivoluzione”. La pubblicità ebbe un impatto stratosferico, fu il primo colpaccio azzeccato della Mela.
In questo intervento vi parlerò di come un'azienda che si batteva per determinati principi sia diventata la cosa contro cui combatteva.

Nella sua storia Apple ha sempre avuto nemici, il primo era appunto IBM
Apple è sempre stata un’azienda che ha portato innovazione, a cominciare proprio dai suoi primi computer, destinati ad utenti finali, non più solo ad aziende, fino ad arrivare agli attuali iPod, iPhone, iPad e così via. In realtà Apple non ha inventato nulla, piuttosto è sempre stata brava a prendere un’idea (anche vecchia), ottimizzarla, pubblicizzarla e rilanciarla sul mercato.
La bravura di Apple era quella di guardare sempre al futuro, senza mai soffermarsi un solo istante al presente. Un’azienda composta da persone libere di operare con la massima autonomia e di sfornare idee senza vincoli….Sembra una barzelletta se si pensa che il motivo del fallimento sia stata proprio questa eccessiva libertà (a detta degli ex dipendenti Apple). La “democrazia” aziendale inoltre era un altro fattore determinante, che portò perfino al licenziamento del fondatore, un certo Steve Jobs (che non ha bisogno di presentazioni).

L’azienda conobbe negli anni 90 un periodo di profondo buio, periodo che portò Apple quasi alla chiusura se non fosse che Steve Jobs acquistò la sua stessa Apple con i soldi che si era fatto con la Pixar. Successivamente acquistò NeXT, azienda il cui SO divenne poi la base dei computer prodotti dall’azienda di Cupertino. Jobs sapeva cosa portò la prima Apple al declino e quindi al suo licenziamento, decise perciò di cambiare completamente strategia. Non più libertà di idee all’interno dell’azienda ma modello piramidale, con lui stesso a capo di tutto.

Steve Jobs mentre presenta il MacBook Air, capolavoro di design e tecnologia
Il successo è garantito dal fatto che a lui le idee non mancano, è una delle persone più in gamba del panorama informatico, del resto Apple è nata anche con lui. I prodotti inoltre sono di buona fattura, il design è ottimo e in quanto a pubblicità ci sanno fare.
All’inizio del nuovo millennio rinasce la nuova Apple, la mela morsicata multicolore diventa una mela morsicata grigia, un marchio destinato a diventare il simbolo della generazione 2000. In poche parole Jobs capì la lezione impartitagli da Bill Gates: il prodotto che vende di più NON è quello migliore, conta l’IMMAGINE. Immagine ampiamente ottenuta grazie ad una combinazione tra stile, design e innovazione, il tutto amplificato da un marketing che ha portato il consumatore a vedere Apple come una sorta di fede.
Il cliente infatti è portato all’acquisto non solo per la qualità del prodotto offerto dalla Mela, ma anche per “l’attrazione” verso quest’azienda. Da appassionati di tecnologia si diventa fan della Apple.
Curiosità: le canzoni dei Beatles sono presenti su iTunes solo da poco tempo, infatti pare che  ai ragazzi di Liverpool non sia mai andato giù il fatto che la loro mela sia stata utilizzata da un'azienda informatica
Il passo finale consiste nel controllo totale del software, impedendo in ogni modo il contatto “esterno” con applicazioni che non sono passate sotto la lente d’ingrandimento della mela morsicata, che obbliga gli sviluppatori a vincoli rigorosissimi da rispettare, si è arrivati perfino al punto che il Flash Player non è supportato dai dispositivi iOS.
Insomma i clienti diventano fan, obbligati ad utilizzare determinati software e schifati per tutto ciò che è al di fuori del mondo Apple. L’atto è compiuto, per battere il Grande Fratello bisognava DIVENTARE il Grande Fratello. Addio vecchia Apple, benvenuta nuova Apple, il mondo è tuo.

venerdì 22 luglio 2011

Ma il cielo è sempre più Cloud

Come ho scritto in diversi interventi di questo blog, l’informatica sta subendo un cambiamento. Certo, l’informatica è SEMPRE in evoluzione, ma nei prossimi anni questo “avanzamento” (se così si può definire) sarà più profondo rispetto agli ultimi anni. Infatti il computer è sempre più uno strumento utilizzato esclusivamente per andare in rete, inoltre ora è possibile accedere al web anche da moltissimi altri dispositivi. Ecco quindi che, da strumento di elaborazione, i nostri PC sono sempre più vicini a dei terminali.

Similmente a quanto accade in un’architettura Client-Server aziendale, l’evoluzione tecnologica apportata dalle telecomunicazioni ha fatto si che i contenuti di cui usufruiamo comincino a trasferirsi man mano sempre di più verso il web. Se prima scaricavamo l’mp3 per sentire la musica ora ci basta scrivere il nome su youtube e ascoltarla in streaming da lì. Se non vi basta come esempio pensiamo a Facebook: moltissime persone acquistano un PC sono per accedere ai social network, dove i dati sono tutti salvati in rete, il resto del PC è pressoché inutilizzato.

Cloud Computing, in breve

L’avanzamento delle telecomunicazioni ha insomma portato in un certo senso una involuzione prestazionale dell’hardware, sempre più concentrato sul risparmio energetico che sulle prestazioni. Basti pensare ad esempio alle CPU che montano i netbook e i tablet, prestazioni paragonabili a quelle di processori di 7-8 anni fa, ma autonomie prossime alle 10 ore.
Insomma, una volta raggiunte le prestazioni sufficienti per far girare i contenuti del browser il gioco è fatto, manca solo una cosa: dove memorizzo i dati? Ecco che nasce il Cloud Computing, ovvero la possibilità di salvare i dati su un server remoto per poi accedervi in qualunque momento una volta connessi ad Intenet.
La cosa fa storcere il naso? È vero, l’idea di avere dei dati personali salvati su di un server in qualche parte del mondo non mi rende particolarmente felice, infatti tutt’ora non faccio uso di applicazioni cloud, tipo Dropbox (più che altro perché non ne ho la necessità). Inoltre nel caso non sia possibile accedere ad internet, anche i dati saranno inaccessibili.

I dati di migliaia di utenti vengono salvati in stanze simili a questa

La cosa però risulta estremamente utile nel caso si debba poter lavorare con gli stessi dati da dispositivi diversi: niente backup, niente trasferimenti continui da una postazione all’altra e possibilità di accesso e modifica su dispositivi di ogni tipo. Anche le foto caricate su Facebook sono un esempio di cloud, se per esempio vogliamo far vedere ad un amico le foto delle nostre vacanze, basta accedere, anche da un telefono, e abbiamo subito le foto pronte da sfogliare.

Nell’articolo precedente ho parlato di Chromebook, il primo computer/dispositivo che sfrutta completamente il Cloud Computing. Google infatti è stata (anzi è) una delle prime aziende a puntare di più sul cloud (e vorrei vedere, dato che il web è il suo mercato), creando strumenti innovativi come Google Docs, un editor di documenti simile a Word, ma completamente online, compresi i salvataggi dei file. Anche Microsoft ha dato un suo contributo, sulla falsariga di Docs, con la suite Office Live.

L'uomo ha sempre sognato di volare tra le nuvole, per ora ci possiamo limitare a farci andare i nostri dati (in quelle virtuali si intende)

Il cloud è solo una delle tante innovazioni informatiche che lo sviluppo della rete ha portato. A mio avviso l’unico grande ostacolo per la diffusione capillare di questo servizio e l’attuale impossibilità di potersi connettere in ogni luogo per accedere ai dati, a conferma di quanto sia necessario lo sviluppo della banda larga nel nostro paese. Per la questione sicurezza si potrebbe dedicare una parentesi a parte, il dover affidare i nostri dai ad un servizio “esterno” crea un forte senso di paura di poterli perdere o che qualcuno possa accedervi senza permesso, però possiamo porci una domanda: è più sicuro un server con dati criptati e sistemi di protezione all’avanguardia o in nostro PC? A mio avviso nessuno dei due.

lunedì 18 luglio 2011

Chromebook: il computer È il browser

Nonostante fosse già cominciata la capillare diffusione nelle case, fino a 10-12 anni fa il computer era visto quasi esclusivamente come strumento di lavoro. I prezzi erano ancora abbastanza altini, non inaccessibili ma comunque più alti di oggi, per cui pochi si incaricavano di una spesa che superava abbondantemente il milione di lire per accaparrarsi un affare di cui non sapeva che farsene.
La presenza di almeno 1 PC per casa, situazione in cui ci troviamo oggi, è dovuta senza dubbio grazie alla diffusione di internet. Il Web è la “linfa vitale” dei nostri computer, dato che la maggior parte delle persone non lo utilizzano per giocare (nonostante siano più potenti delle attuali console) o per lavorarci con vari programmi. La stragrande maggioranza di chi acquista un PC oggigiorno, lo fa per andare su internet (leggasi Facebook per molti).

Google, azienda di cui non nascondo di avere parecchia stima per tutte le innovazioni che ha portato e per avere contribuito maggiormente allo sviluppo e alla diffusione di internet, pare aver interpretato in maniera molto “estrema” questo concetto: se il PC viene utilizzato per andare su internet, a cosa serve tutto il resto?

Ecco quindi che nasce l’idea di un PC progettato ESCLUSIVAMENTE per il web: Chromebook.
Il nome deriva ovviamente dal famoso browser di Google, che in pochissimo tempo si è imposto come terzo browser più diffuso al mondo, sto parlando di Google Chrome. Ecco, il Sistema Operativo di questi “computer” è costituito solamente dal suddetto browser. Dal momento dell’accensione fino allo spegnimento abbiamo sempre davanti l’interfaccia di Chrome.

Samsung Serie 5, il primo Chromebook sul mercato
Una delle scelte più coraggiose del mondo IT, senza internet il Chromebook è solo un oggetto inutilizzabile, o per lo meno utilizzabile solo per le poche cose che è possibile fare offline come scrivere i testi o leggere contenuti da dispositivi USB, cose rese possibili grazie alle applicazioni di Chrome OS, che non sono altro che le estensioni del browser Chrome.
Ma quali sono i vantaggi? Velocità, in una manciata di secondi si è già online, è come accendere una calcolatrice per fare 2 conti al volo, compattezza, peso, autonomia e semplicità di utilizzo. Il prezzo non lo metto tra i vantaggi, dal momento che montano lo stesso hardware di un netbook, ma i prezzi sono leggermente più elevati (probabilmente a causa della presenza di un SSD, anche se di soli 16GB).
Se si esce un attimo dall’ottica “computerista”, che potrebbe portare a perplessità per le scelte prese da “big G”, il Chromebook parrebbe proprio pensato per un pubblico interessato SOLTANTO alla navigazione. La velocità di avvio in particolar modo fa si che accedere ad internet con questo dispositivo sia veloce come consultare rapidamente un libro oppure effettuare una chiamata, senza avere la noia di aspettare il boot del PC ed il caricamento del SO. La tastiera inoltre è pesantemente rivista: via il caps lock, i tasti funzione e tutto ciò che un utente medio non utilizzerà mai.

La gestione dei dati è tutta orientata sul cloud, quindi nessuna memorizzazione nell’SSD in dotazione, che funge da buffer e a volte da memoria quando si è offline, ma è tutto sincronizzato nei server di Google, come anche sono sincronizzati i segnalibri, le applicazioni e tutta la suite di strumento online che mette a disposizione Google. Insomma più che un PC è un terminale di accesso, terminale che funziona dannatamente bene (come ci ha abituati G), a parte qualche piccolo intoppo tipico dei nuovi SO al debutto.

Google è nato come semplice motore di ricerca, oggi offre numerosi servizi e applicazioni gratuitamente
dannatamente bene (come ci ha abituati G), a parte qualche piccolo intoppo tipico dei nuovi SO al debutto.
Il primo produttore che ha avuto il “coraggio” di buttarsi in questa sfida è Samsung, proponendo il Serie 5 in 2 versioni, una solo Wi-Fi e una con Wi-Fi e 3G. Il design è analogo agli ultraportatili Samsung e non è possibile in alcun modo espandere o cambiare le componenti interne (tipo Macbook per intenderci) dal momento che è tutto saldato sulla scheda madre. Presto (spero) seguiranno anche altri produttori, un po’ come è successo con Nexus One.

L’informatica sta cambiando e lo sta facendo su diversi fronti. Abbiamo oltre ai computer gli smartphone, i tablet e ora ci prova anche Google con questo Chromebook. Lo scenario è estremamente interessante.

giovedì 14 luglio 2011

Che fine ha fatto il WiMAX?

In fatto che molti neanche sanno cosa sia, dimostra ancora di più il fatto che il WiMAX nel nostro paese non è mai partito, nonostante le aste (con le relative concessioni) siano terminate dal 2008.

L’Italia è indietro, anzi, molto indietro per quanto riguarda la diffusione della banda larga. Siamo tra gli ultimi d’Europa e perfino la Libia, dove c’è stato un regime fino a poco fa e tutt’ora c’è una guerra, ci supera. Il WiMAX è uno standard approvato da IEEE (l’ente che si occupa di approvare standard in ambito di telecomunicazioni) nel 2001, e consiste nell’utilizzare frequenze radio, appartenenti sia alla banda “libera” (quella utilizzata per il wifi domestico) sia a frequenze su concessione, per diffondere la banda larga in maniera wireless, senza quindi dover aspettare che il gestore di rete fissa decida di estendere la banda larga su doppino telefonico anche in aree non coperte.

Il logo del WiMAX: provate a chiedere a qualcuno se l'ha mai visto o sentito nominare

Nel nostro paese la norma prevede l’utilizzo di questa tecnologia nella banda 3,4-3,6 GHz, ovvero frequenze su concessione. È stato quindi necessario eseguire un’asta pubblica per la concessione delle frequenze nelle varie regioni.
Sarebbe bello poter dire: “L’asta ha avuto luogo in contemporanea agli altri paesi d’Europa, è stata impedita la partecipazione alle aziende che forniscono medesimi servizi (per favorire la concorrenza) e oggigiorno abbiamo un mercato composto da molte aziende, non più un oligopolio, e la banda larga è oramai diffusa sulla maggior parte del territorio”…

…ma purtroppo tutto ciò non è affatto vero. Innanzitutto l’asta è avvenuta con un discreto ritardo rispetto a tutta Europa a causa della precedente assegnazione delle frequenze al Ministero della Difesa che ha fatto un po’ da intermediario. Successivamente è avvenuta l’asta, ma non è stata in alcun modo impedita la partecipazione di operatori telefonici già esistenti.
È nata anche una polemica su quest’ultimo punto, perché qualcuno ipotizzò che ad esempio Telecom avrebbe potuto comprare le frequenze ma non utilizzarle per il WiMAX, facendo così morire la tecnologia per evitare il nascere di qualche forma di concorrenza.


Antenna per WiMAX

A conclusione dell’asta si è raggiunto un incasso totale di 136 milioni di euro, la cifra più alta d’Europa, probabilmente a causa della partecipazione di aziende di telecomunicazioni che hanno alzato l’asticella mentre cercavano di aggiudicarsi le frequenze ed evitare così la concorrenza. Telecom si è aggiudicata diverse frequenze (che ovviamente non ha utilizzato per diffondere il WiMAX), mentre le altre aziende vincitrici non sono riuscite a raggiungere una certa copertura minima imposta dal regolamento (copertura che doveva essere raggiunta nell’arco di 24 mesi).

Il vero colpo di grazia però è stato inflitto dai gestori mobile, quindi Vodafone, Wind, TIM e H3G, con le famigerate chiavette internet! In particolare 3 Italia, nel lontano 2000, vinse la gara relativa all’assegnazione della licenza UMTS e nel 2003 lanciò i suoi primi telefoni capaci di effettuare le videochiamate, sfruttando la maggiore velocità offerta dall’UMTS.
Ma alla gente non interessano le videochiamate, la gente vuole internet e vuole navigare ovunque. Quando i gestori lo capirono era troppo tardi, il WiMAX era cosa già approvata e l’asta era imminente: bisognava fermarlo!

La soluzione a questo problema erano appunto le chiavette HSPA.
Il fatto che la rete era già pronta per offrire questo servizio, i terminali erano già largamente diffusi grazie a offerte del tipo “cellulare a 0 euro” (ma con vincoli contrattuali di 2 anni) e grazie ai pressanti bombardamenti pubblicitari, le chiavette distrussero definitivamente il WiMAX, che già faticava a partire per motivi suoi.


Chiavette internet HSPA: anche loro meritano un certo design, che scherziamo!
Oggi se si vuole navigare ovunque bisogna sottoscrivere un abbonamento mensile con qualche gestore mobile, gestori che non si fanno scrupoli a tenere prezzi altissimi e a far sottoscrivere abbonamenti vincolanti con relative penali, eventualmente un utente decidesse di cambiare.
La diffusione della banda larga su tutto il territorio e la possibilità di accesso ad internet ovunque a prezzi accessibili (oppure gratuitamente), restano ancora sogni lontani dall’avverarsi. La produttività potrebbe aumentare considerevolmente grazie ad internet, ma evidentemente non è nell’interesse dei soggetti che manovrano il nostro mercato.

Con lo switch-off della TV analogica si libereranno tantissime frequenze, vediamo ora cosa faranno o, più plausibilmente, NON faranno per sfruttarle a favore della banda larga.