mercoledì 21 settembre 2011

Windows 8: prime impressioni dalla Developer Preview

La settimana scorsa, Microsoft ha rilasciato la Developer Preview del suo prossimo sistema operativo, che si chiamerà molto probabilmente Windows 8. Questa versione è ancora lontana da quella che sarà la release finale, in effetti non è neanche una beta, ma è dedicata agli sviluppatori, in modo che inizino a conoscere meglio il nuovo “habitat”. Il ritmo di sviluppo di Microsoft (ma la stessa cosa vale per tutte le grandi software house) è molto elevato, pensate che Windows 8 è in fase di sviluppo da giugno 2009, ancor prima dell’uscita di Windows 7!

La versione da me provata è una 32bit senza kit di sviluppo, installata su netbook Asus EeePC 1101HA. Essendo un sistema orientato alla compatibilità con i tablet infatti, ho preferito testarlo su di una macchina avente caratteristiche hardware non molto superiori (anzi forse inferiori) alle famose tavolette.
Una volta avviato il PC dalla chiavetta USB contenente l’immagine di windows, la schermata d’installazione apparsa è pressoché identica a quella di Windows 7. Dal momento in cui ho lanciato l’installazione fino a quando è comparsa la schermata di configurazione, il sistema ha impiegato in tutto solo 12 minuti!
La prima cosa da segnalare è il fatto che questo nuovo Windows permette già in fase di setup l’integrazione con Windows Live ID, per cui se avete un account MSN o Xbox Live potrete sincronizzarlo comodamente con il SO.


Una volta completata la semplicissima fase di configurazione iniziale, occorrono altri 2-3 minuti per avere finalmente il sistema perfettamente operativo.
Il desktop di Windows 8 risulta particolarmente famigliare: praticamente è IDENTICO a quello di Windows 7. L’unica differenza nell’interfaccia grafica è rappresentata da “Ribbon”, ovvero la nuova bassa dei menu presente da Office 2007 che ora ha preso il posto di quella classica in tutto Windows.

Schermata di sblocco, bisogna trascinarla in alto
Ecco come appare il desktop "classico"

Le somiglianze però finiscono qui, infatti una volta avviato il tasto Start ecco comparire la famosa interfaccia “Metro”, lanciata per la prima volta su Windows Phone e ora portata in ambiente desktop.

La famosa interfaccia "Metro", in questa preview sostituisce il menu Start

Questa versione preview è ovviamente abbastanza “spoglia”, troviamo infatti qualche applicazione (per lo più giochi), Internet Explorer 10, lo Store (non ancora attivo),  il Pannello di Controllo e il ritorno al desktop. Le applicazioni aperte da un’interfaccia, funzioneranno all’interno dell’ambiente grafico dove il programma è stato lanciato. Se apriamo IE10 dalla “Metro” per esempio, esso funzionerà con lo stile “Metro”, con la barra degli indirizzi in basso e un’anteprima delle finestre in alto (menu attivabili con il click destro del mouse su PC), stessa cosa vale per il pannello di controllo, ma NON per il Windows Explorer, che verrà lanciato in ambiente desktop classico.

Nuovo look anche per il pannello di controllo, è possibile visualizzare anche quello classico

Ovviamente i vari elementi dell’interfaccia Metro potranno essere spostati e ridimensionati, proprio come è oramai consuetudine in tutti i tablet e smartphone. Altra prerogativa è il fatto che le applicazioni lanciate dalla nuova interfaccia non vengono mai chiuse, ma una volta richiamata la “home” (cioè il tasto Start), queste vengono messe in uno stato di sospensione. Le applicazioni non impegneranno la CPU durante lo stato di sospensione, ma una volta avviate nuovamente,  esse si apriranno istantaneamente senza dover aspettare che il SO le carichi. Insomma, proprio come accade con le applicazioni degli smartphone.


Passiamo ora a parlare della gestione del sistema: oltre alla sopraccitata Ribbon, possiamo trovare novità anche nel task-manager: al primo avvio ci apparirà soltanto la lista delle applicazioni aperte e in background, ma andando a cliccare sul pulsante per mostrare tutti i dettagli si aprirà un mondo!
Innanzitutto troviamo una schermata precisa e ordinata che mostra la lista dei task dove, con un semplice click sul tasto “+” posto al fianco di ognuno di essi, è possibile visualizzare la lista dei servizi associati al processo, senza dover quindi andare a ricercarli manualmente, con il rischio di sbagliare.
Nella seconda scheda possiamo ammirare una serie di grafici molto dettagliati, che mostrano l’andamento della CPU, della RAM, del disco e del traffico in rete. Nella scheda App History abbiamo la cronologia delle applicazioni aperte in passato e, come ultima novità, abbiamo la gestione delle applicazioni in startup direttamente nel task-manager.

Un task-manager molto più dettagliato...
...possiamo controllare dettagliatamente l'utilizzo di ogni componente del sistema o sapere se il nostro PC si vede con degli sconosciuti se lo vogliamo 

Il file manager non cambia rispetto a windows 7, possiamo notare però una gestione dei trasferimenti molto più dettagliata e organizzata. Un grafico ci mostrerà l’andamento del transfer-rate mentre, copiando più file, avremo un’unica finestra di trasferimento, il tutto gestito da un unico task. Di questa ottimizzazione del sistema di trasferimento infatti, Microsoft parlò poco prima della presentazione.


Grafici ovunque, anche nel trasferimento file


Ovviamente non si può dare alcun giudizio a questo Windows 8, infatti è soltanto una release palesemente INCOMPLETA, nonché un misto poco azzeccato tra interfaccia Metro e classica. Possiamo quindi dire che si tratta solo di una rapida occhiata, che ha messo in mostra come Microsoft si sia concentrata maggiormente sull’interfaccia grafica per rendere il sistema facilmente utilizzabile su tablet.
Non ho voluto entrare meglio nei dettagli perché non avrebbe senso con una release così acerba, non ci resta che attendere con calma che finiscano per bene il lavoro per avere una idea di come realmente sarà il nuovo Windows.



PS: per questioni di praticità, le immagini provengono da una versione virtualizzata.

martedì 13 settembre 2011

La Carica degli Ultrabook


Se dovessimo aprire un vocabolario inglese del 1950 e lo confrontassimo con uno del 2011, troveremmo moltissime differenze e termini aggiunti. Stessa cosa vale anche per la lingua italiana certo, ma forse in maniera inferiore.
La stragrande maggioranza di questi termini hanno molto probabilmente avuto origine con l’avvento delle tecnologie informatiche. Internet, Web, Browser, Notebook e tutta la famiglia di vocaboli informatici hanno riempito pagine e pagine di vocabolario, e il trend (notare il termine) non accenna affatto ad arrestarsi. Dopo gli ultimi arrivi “Netbook” e “Talbet” ecco arrivare “ULTRABOOK”.

Terminologia a parte, stiamo parlando di portatili dallo spessore ridotto, anzi RIDOTTISSIMO.
Inizio l’intervento parlando ancora una volta di Apple, azienda senza dubbio caratterizzata da un discutibile modo di fare business, ma dalle ottime capacità di reinventare e di progettazione. Proprio da queste capacità, nel 2008 è stato presentato al mondo quello che ritengo uno dei  migliori prodotti tecnologici degli ultimi anni: il MacBook Air. Questo gioiello di ingegneria non è altro che un notebook (pardon, un MacBook, anche se i MacBook a parte il software non hanno nulla di diverso da un notebook), dallo spessore di poco maggiore di quello un quaderno.
A mio modo di vedere le cose, questo è quello che definisco PROGRESSO: il computer portatile deve essere appunto il più portatile possibile e il MacBook Air sposa esattamente questa tesi. Per uno studente o un uomo d’affari una cosa del genere è manna dal cielo: ingombro e peso ridotti all’osso, senza dover rinunciare a tastiera, connettività e potenza (insomma non è un tablet).
Complimenti Apple dunque, tuttavia il problema dei prodotti della mela morsicata è sempre lo stesso: il prezzo! Nonostante lo ritenga il prodotto Apple meno sovrapprezzato, per avere un dispositivo del genere bisogna sborsare non meno di 1300€*. Nonostante tutto le vendite sono più che soddisfacenti, in effetti tutto ciò che esce dai laboratori Apple vende bene.

Steve Jobs mostra al mondo la sua "creatura"....e sorride pensando ai soldi che gli farà fare

Da quando Apple strinse un accordo con Intel, tutte le piattaforme dei computer della mela sono realizzate da Intel. Quest’ultima, facendo atto delle buone vendite del gioiellino Apple, ha deciso di fornire linee guida per la costruzione di soluzioni simili anche ad altre aziende. Ultrabook quindi è una specifica costruttiva di Intel per la produzione di notebook ultrasottili: possiamo vederla come una scommessa fatta dal colosso di Santa Clara. Intel nel 2012 prevede che il 40% degli acquirenti di una soluzione portatile sia orientato verso una piattaforma ultrabook. Gli analisti del colosso delle CPU non sono affatto stupidi, infatti hanno scelto come terreno di test nientemeno che Apple, che ovviamente più di ogni altra azienda accoglie l’innovazione.

Proprio come le soluzione netbook (che stanno via via sempre più scomparendo grazie alla diffusione dei tablet), l’hardware degli ultrabook delle varie marche è pressoché identico: troviamo infatti processori aventi architetture Sandy Bridge “low voltage” , unità SSD e (purtroppo) una connettività abbastanza limitata, a causa del design “estremo”, che costringe i produttori a limitare le connessioni esterne a sole 2 porte USB e al massimo un altro paio di porte, siano esse HDMI o Ethernet.
Nei primi giorni dopo la presentazione, Intel avvertì i partner dicendo loro che le soluzioni Ultrabook avranno successo SOLO se saranno vendute ad un prezzo inferiore di quello dell’Air. Le aziende hanno accettato volentieri il consiglio, infatti dai primi prezzi comparsi nei listini, queste soluzioni dovrebbero essere vendute attorno agli 800€.

Una slide di Intel che mostra i punti di forza dei nuovi portatili ultrasottili

Insomma ci troviamo di fronte ad uno scenario già visto diverse volte: Apple reinventa una soluzione (lo ha fatto ultimamente con iPhone e iPad) e la concorrenza è costretta a buttarsi nello stesso settore. Vista così sembra una cosa molto triste, possibile che solo un’azienda riesce a tirare fuori qualcosa di nuovo?
In realtà moltissime aziende propongono novità, basti pensare ai netbook, ai telefoni con tastiera slider, ma anche gli stessi smartphone full-touchscreen  (come Sony Ericsson P800). Tuttavia nessuno riesce ad avere lo stesso impatto che hanno i prodotti Apple, forse perché l’azienda di Cupertino riesce a trovare il momento giusto (dato dalla tecnologia disponibile) per tirare fuori il nuovo “iCoso” di turno, oppure semplicemente perché Apple è una vera e propria moda, non importa cosa faccia e come lo faccia, sarà sempre “figo”.

Una catasta da 4000€ alta meno di un palmo

Fatta questa premessa arrivo al punto: riusciranno questi Ultrabook a competere con lo strapotere Apple? Oppure saranno soltanto un trampolino di lancio per il MacBook Air, portando le sue vendite ai livelli di iPad e iPhone? La scelta spetta a voi.

* Parlo del modello 13” dato che la concorrenza, gli Ultrabook appunto, offre portatili dalla medesima diagonale.


martedì 6 settembre 2011

Grafene: il candidato numero uno per sostituire il Silicio


L'elettronica, l'informatica e le telecomunicazioni sono probabilmente le tecnologie che hanno subito l'evoluzione più rapida nella storia dell'uomo. Se pensiamo a 60 anni fa infatti, un elaboratore non più potente di una calcolatrice scientifica arrivava ad occupare la dimensione di una stanza, fatto da valvole, schede perforate e unità disco da 5 Mb grandi come il tronco di una quercia secolare e alte un paio di metri. Poi arrivò il transistor, il componente fondamentale di tutta l'elettronica digitale, che rimpiazzò presto le valvole (ma non in campo audio dove tutt'oggi sono ricercate). Le fastidiose matasse divennero quindi eleganti tavolette con circuiti stampati e componenti saldati.
Ma il vero punto di svolta avvenne però con il SILICIO. Le proprietà di questo semiconduttore infatti, permisero la creazione di circuiti integrati. In un centimetro quadrato si riuscirono a far entrare centinaia di transistor, poi migliaia, poi milioni e oggi centinaia di milioni. La crescita è così elevata che Gordon Moore, uno dei fondatori di Intel, ipotizzò che il numero di transistor all'interno delle CPU sia destinato a raddoppiare ogni 18 mesi. Questa osservazione è ritenuta così “sacra” e importante da essere chiamata “Legge di Moore” ed è il motto a cui fa fede Intel ogni volta che sviluppa un nuovo processo produttivo.

Un wafer di silicio. Pensate che in ognuno di quei chip pronti da tagliare ci sono milioni e milioni di transistor!
Moore tuttavia non aveva previsto una cosa (oppure lo aveva fatto ma nessuno lo aveva preso sul serio): prima o poi bisognerà fermarsi. Infatti ci si sta avvicinando sempre di più alle dimensioni dell'atomo, oltre non è possibile andare. Oggi siamo in un periodo in cui non è più possibile tenere fede in maniera rigorosa alla “Legge di Moore”. I processi produttivi diminuiscono sempre di più, attualmente ci troviamo a 28nm, ma i consumi non diminuiscono e le prestazioni non raddoppiano, contraddicendo anche l'altro aspetto della legge che prevede anche un raddoppio di prestazioni ogni 18 mesi.
Non solo le ridottissime dimensioni dei transistor rendono sempre più complicato il processo di realizzazione, ma i problemi di diafonia dovuti dalla vicinanza dei componenti diventano sempre più difficili da gestire.* Se già tra due piste di rame poste ad un millimetro di distanza si possono creare fenomeni di accoppiamento elettromagnetico, figuriamoci se queste piste si trovano a poche decine di nanometri.
Per ridurre gli effetti di capacità ed induttanze parassite si ricorrono a piste di massa intermedie e filtri di controllo, che non fanno altro che occupare sempre più spazio all'interno del chip: ecco perché le prestazioni non raddoppiano e i consumi non calano.
Del resto i limiti del silicio hanno anche portato alla fine della “corsa ai megahertz”, portando avanti nuove idee di sviluppo, come le architetture multi-core e APU.

Il silicio quindi sta invecchiando, i primi capelli grigi e le rughe cominciano a farsi vedere: c'è bisogno di un successore al trono. Dopo anni di ricerca (fortunatamente all'estero ci investono), tutt'ora ancora in corso, il candidato ideale sembra essere proprio questo GRAFENE.
Come è facilmente intuibile dal nome, questo materiale è ricavabile attraverso procedimenti chimici dalla grafite. La cosa che lo rende così speciale è il forte legame tra gli atomi che la compongono, in grado di mantenere una solidissima struttura cristallina. Addirittura si pensò di sfruttare questa caratteristica per trainare carichi pesantissimi utilizzando barre di grafene, tanto per fare un esempio per sollevare un ascensore pieno basterebbe un filo di grafene non più grande di un filo di nylon. Questa solidità dei legami tuttavia può essere più intelligentemente sfruttata per creare strutture piccolissime, dal momento che riuscirebbero a reggere senza collassare molto meglio di altri materiali. Quanto piccole? Come UN ATOMO.

Una struttura di nanotubi di grafene, simulata in computer grafica ovviamente
Esatto, è possibile realizzare “fogli” di grafene dallo spessore di un solo atomo. Ma a che serve direte voi.
La risposta è semplice: quando un elettrone scorre in un conduttore, questo ha una certa probabilità di scontrarsi con un nucleo di un atomo di rame e “schizzare” fuori dal conduttore, proprio come una palla da biliardo. Più atomi di conduttore ci sono, più è alta la probabilità che un elettrone si scontri, quindi più è alta la resistenza parassita. Se si riesce a ridurre lo strato conduttore ad un solo atomo, la resistenza diviene bassissima, perché la distanza tra nucleo ed elettroni è molto grande rispetto alla dimensioni delle cariche, l'atomo infatti è per la maggior parte vuoto.
Avremmo quindi dei circuiti che si comportano in maniera quasi IDEALE. Molto di quello spazio occupato da circuiti per correggere i problemi creati dai limiti del silicio verrebbe utilizzato per altri transistor. La minore resistenza inoltre si tradurrebbe in un minore riscaldamento del chip, dal momento che il calore si genera proprio grazie alle resistenze parassite che trasformano parte dell'energia sprigionata dall'urto in calore.

Il superamento di questi limiti potrebbe favorire un ritorno allo sviluppo concentrato sull'incremento della frequenza di clock. Un gruppo di ricerca di IBM è riuscito addirittura a ricongiungere una frequenza di 100MHz con dei transistor realizzati in grafene.
Ma grafene non vuol dire solo CPU: con questo straordinario materiale si sta lavorando (in termini di ricerca) per la realizzazione di memorie sempre più capienti e veloci, per non parlare delle batterie, che sono a tutti gli effetti la rogna maggiore dei produttori di dispositivi mobile.
Altro settore dove trova posto questo materiale sono le telecomunicazioni: tutti i vantaggi portati dalle comunicazioni ottiche vengono ad annullarsi se le si utilizzano per brevi distanze, poiché ad un certo punto i “dati ottici” devono comunque essere convertiti per lavorare su circuiti elettronici. Utilizzando materiali “normali”, questa conversione si traduce in una enorme perdita di tempo. Le alte velocità dei circuiti al grafene invece potrebbero riuscire a colmare gran parte delle latenze, garantendo alte velocità anche nei punti di scambio.
Le potenzialità per diventare il sostituto ideale del silicio ci sono tutte, ovviamente per arrivare alla fase di sviluppo saranno necessari ancora anni di ricerca, ma questo è normale, avviene per ogni nuova tecnologia “rivoluzionaria” che si sviluppa. La parte più difficile però sembra essere superata, ovvero quella di trovare la strada giusta, per il resto basta camminare ancora e ancora.


*La maggior parte del tempo impiegato da un elaboratore nel processare dati, viene “sprecato” per il trasporto dell'informazione attraverso i BUS.


mercoledì 31 agosto 2011

Microsoft e Apple pensano al sistema operativo unico?


Come ho spesso parlato su questo blog, la sottile linea che separa i computer dai dispositivi mobile sta sempre più scomparendo. Le aziende che prima producevano PC desktop o notebook stanno spostando i loro volumi di vendita verso smartphone e tablet, seguendo il cambio direzione intrapreso per primo da Apple, proprio come un branco di pesci in un oceano. Del resto quando si parla di centinaia di milioni (se non miliardi) di fatturato si fa di tutto.
Malgrado Acer preveda un calo delle vendite di tablet una volta passata la moda, Microsoft e Apple non sembrano pensarla così. Cerchiamo di capire in che modo i due colossi della Silicon Valley affronteranno la situazione.

Microsoft non è certo una novellina nel realizzare sistemi operativi per dispositivi mobile. Già nel 1996 sviluppò Windows CE, un SO destinato a PDA e Palmari (i tablet di una volta) nonché ai Pocket PC. Successivamente l’evoluzione di questo sistema ha determinato l’uscita della ben più nota famiglia Windows Mobile. Sfortunatamente però, Windows Mobile non ha mai brillato nella categoria smartphone, a causa del fatto che il suo kernel (derivato direttamente da CE) non è mai stato adeguato allo scopo. Del resto la politica di Microsoft è sempre stata quella di portare avanti il kernel finché si può.
Peccato però (in realtà è una fortuna) che la concorrenza non sta a dormire: se il marchio Windows tra i computer riesce a sopperire alle mancanze del SO, nel mondo della telefonia non è andato affatto così.

Gli antenati dei nostri tablet, basati su Sistema Operativo Windows Mobile
Symbian infatti è stato il leader incontrastato fino all’arrivo di iPhone, che ha decisamente scosso il mercato con l’introduzione di iOS. Nacquero dunque Android e solo successivamente Windows Phone 7 che, insieme ad iOS, sono partiti all’inseguimento di un Symbian destinato a quanto pare ad essere sorpassato (Android sembra essere in vantaggio).
Parliamo dunque di iOS: a differenza di Microsoft, quando Apple ha presentato nel 2007 il SO del proprio iPhone, questo si è dimostrato decisamente migliore della concorrenza (tutt’ora è ai vertici della categoria). Questo perché è stato pensato e sviluppato appositamente per l’ambito smartphone e per girare su un solo ed unico dispositivo. È nella politica di Apple del resto sviluppare software in grado di girare solo sul proprio hardware.

Se fino a poco tempo fa i computer incrementavano la loro potenza anno per anno in maniera esponenziale, oggi questa tendenza si è notevolmente ridotta, probabilmente per merito (anzi per colpa) delle console da gioco e dei dispositivi mobile, che hanno ridotto il PC al solo utilizzo da ufficio o per cosette varie che non permettono di fare gli altri dispositivi (ovviamente sto parlando di utenti medi che navigano e giocano). Al contrario gli smartphone e i tablet sono ogni anno sempre più potenti, quasi il doppio, e posseggono un parco software da poter permettergli di fare la maggior parte delle cose che fa un utente medio.

Asus Transformers e Acer Iconia Tab: gli anelli mancanti tra computer e tablet
Per quanto riguarda i tablet, mentre Android e iPhone forniscono per questi dispositivi il medesimo SO che utilizzano sugli smartphone, lo stesso non si può dire di Microsoft. Il suo cavallo di battaglia infatti, a differenze di Google e Apple, non è il SO mobile, ma quello per PC: Windows 7. Tuttavia i pochi tentativi di portare questo SO su tablet (come su HP Slate) si sono rivelati un fallimento. Windows Phone del resto è come un secondo pilota nella scuderia Microsoft, non reggerebbe il peso della competizione su tablet. Ecco quindi che la direzione intrapresa dall’azienda di Redmond è quella di rendere il loro prossimo Windows completamente adattato al mondo dei tablet (Aria fresca dalle finestre). Computer e tablet adopereranno quindi lo stesso SO, arrivando in questo modo quasi a cancellare le differenze tra i due mondi.

Se la scelta di Microsoft è quindi quella di trasferire il proprio sistema su un'altra piattaforma, Apple probabilmente sta pensando di UNIFICARE i sistemi che già detiene su entrambe le soluzioni.
L’ultimo aggiornamento del proprio SO desktop, OSX Lion, ha infatti portato alla luce novità che tendono a rendere molto simile OSX ad iOS. Il launchpad per esempio è stato completamente rivisto per assomigliare (anzi rendere praticamente uguale) al menu delle applicazioni di iOS. Anche i gesti del touchpad sono stati stravolti per assomigliare a quelli compiuti sugli schermi touchscreen, come ad esempio il pinch-to-zoom e lo scorrimento del testo non invertito (ricordo che con il mouse se scorriamo la rotellina verso il basso la pagina va in alto, e viceversa).

Il Launchpad adottato in OSX Lion: chi sa se Apple farà causa a se stessa per la somiglianza con iOS
Non so quanti anni ci vorranno ma presto l’integrazione software sarà completa. A quel punto non so se avrà ragione o meno Acer, ma di certo i tablet non smetteranno tutto d’un tratto di esistere.
Quello che dobbiamo sperare tuttavia è il contrario, ovvero che i computer non diventeranno delle mosche bianche in un mondo pieno di tablet e smartphone. Ma forse sono un po’ troppo pessimista.


giovedì 25 agosto 2011

Fibra Ottica: perché da anni è ferma ai box?


Basta avere un minimo di interesse per il mondo dell’informatica per avere almeno sentito nominare la fibra ottica. Quello che invece può essere sconosciuto è il COSA sia.
Immaginiamo di tornare indietro di 10 anni, dove per andare in rete bisognava sfruttare la “preistorica” connessione conosciuta come 56K, o al massimo la (poco) più veloce ISDN: per noi sarebbe l’inferno! Abbonamenti “Flat” dai prezzi esorbitanti, velocità di download e upload esasperanti, il tutto condito dall’impossibilità di poter effettuare chiamate dal telefono fisso, “occupato” dalla linea 56K. L’attuale ADSL è insomma una manna dal cielo, che ha reso possibile, attraverso velocità di connessione molto maggiori, la navigazione web alla portata di tutti. Tutto ciò è stato possibile sfruttando lo stesso mezzo di propagazione, ovvero quel vecchissimo doppino di rame, presente nelle nostre case da sempre.

Immaginiamo ora uno scenario futuro, ovvero computer e dispositivi in grado di immagazzinare dati e di funzionare sfruttando solamente lo spazio web, in modo da ridurre notevolmente i costi dell’hardware (Ma il cielo è sempre più Cloud), oppure immaginiamo case sprovviste di antenne, grazie al fatto che la TV passa direttamente dal web, videoconferenze in tempo reale ad altissima risoluzione, telemedicina, contenuti on demand e chi più ne ha più ne metta. Tutto ciò potrebbe essere possibile grazie a questa fibra ottica, ovvero un mezzo di propagazione che sfrutta onde elettromagnetiche a frequenze ottiche, frequenze enormemente maggiori rispetto a quelle che viaggiano nei doppini e che quindi permetterebbero un trasporto di dati a velocità MOLTO maggiori.

Una mappa approssimativa della diffusione della banda larga.
Questo è possibile grazie al fatto che le onde ottiche (fotoni) viaggiano confinate tra strati dielettrici (in genere materiali vetrosi e/o polimerici) e non nel rame. Non si tratta quindi un riadattamento del mezzo tramite opportune modulazioni, come nel caso dell’ADSL, ma di una tecnica completamente nuova, che richiede l’ausilio di un NUOVO mezzo di propagazione avente una banda ENORME.
Perché dunque non abbiamo ancora la fibra ottica?
La domanda in realtà è posta in maniera sbagliata. Infatti bisognerebbe chiedersi perché nessuno INVESTE sulla fibra ottica…e per nessuno si intende soprattutto Telecom, la proprietaria della rete di accesso, ovvero la ramificazione dei collegamenti tra tutte le case e le centrali di commutazione, uno dei più grandi tesori nazionali. In rete molti infatti indicano Telecom come il cattivo della situazione, che preferisce continuare a tenere alti i prezzi degli abbonamenti ADSL e a mantenere il canone piuttosto che iniziare ad investire qualcosa per la futura generazione del web.

Struttura interna di un cavo contenente centinaia di fibre ottiche
Descrivere la situazione in poche righe è impossibile, perché nel nostro paese, come spesso accade, la situazione è abbastanza ingarbugliata, a causa del fatto che i provider non riescono a mettersi d’accordo su chi debba fare gli investimenti e in che percentuale. La volta che ci sono andati più vicino mancava solo Telecom, che in una cosa del genere non poteva mancare.  I gestori sono arrivati a dire perfino che Google debba partecipare all’investimento per la fibra in Italia, a causa dell’elevato traffico che genera.
Tuttavia non riterrei Telecom e gli altri gestori come unici responsabili, infatti in tutti questi anni neanche i GOVERNI che si sono alternati hanno cercato in qualche modo di portare un po’ di progresso nel nostro Paese, preferendo alla fibra follie come il ponte sullo stretto (opera tecnicamente irrealizzabile), treni ad alta velocità e auto blu. Tutte cose che hanno rientri economici enormemente inferiori rispetto al denaro generato da una nazione avente accesso alla banda larga ovunque.

Se pensate che la fibra abbia un costo elevato vi sbagliate! Le fibre ottiche per telecomunicazioni hanno costi veramente bassi. Giusto a titolo di esempio, un paio di anni fa la mia università comprò 5Km di fibra per i laboratori: il produttore (se non sbaglio Pirelli) non fece pagare all’università neanche un euro!
La spesa maggiore da affrontare è costituita infatti dal costo dei lavori di scavo e sotterramento della fibra. Il nostro paese infatti non è particolarmente propenso a questi lavori: mentre in altre nazioni abbiamo principalmente strade “normali”, l'Italia abbonda di piazze e luoghi storici, che renderebbero impossibili (o comunque particolarmente costosi) i lavori di scavo. La fibra infatti, a differenza del rame, non può curvarsi più di tanto e richiederebbe percorsi alternativi. Immaginate di dover cablare la zona dei Fori Imperiali a Roma, follia pura…
I provider dunque sono IN PARTE giustificati sotto questo aspetto.

Oggi le fibre ottiche sono semplici da realizzare e costano pochissimo
Il cablaggio dell'intera rete di accesso non è dunque la soluzione, si potrebbe però “avvicinare” la fibra alle abitazioni attraverso un ricablaggio dei tratti che vanno dalla centrale agli armadi che abbiamo sotto casa. Il rame infatti permette elevate velocità (anche sui 100Mbps) se i segnali viaggiano su brevi distanze. Portando la fibra in ogni isolato, non in ogni casa quindi, potremmo permetterci di viaggiare a velocità elevatissime sfruttando lo stesso doppino che da decenni compie il suo egregio mestiere. Telecom e gli altri in questo caso non sono giustificati ora, la banda larga è un investimento di primaria importanza, molti paesi industrializzati lo hanno già capito da tempo, è bene che cominciamo a farlo pure noi, altro che ponte sullo stretto, altro che TAV, altro che digitale terrestre.



domenica 21 agosto 2011

Guerra dei brevetti: i soldi non bastano mai


Nei primi anni 2000, negli Stati Uniti si è registrato un numero insolitamente elevato di brevetti, che riguardavano principalmente aspetti tecnologici/informatici. Gli autori di questi brevetti erano piccole aziende e privati, che non hanno mai realizzato dispositivi che li sfruttassero: erano i cosiddetti “Troll dei brevetti”. Qualche anno fa infatti scoppiò una serie di denunce contro tantissime aziende accusate di violare anche aspetti di infima importanza. Per chi come me seguiva i network di tecnologia, non era difficile imbattersi in notizie che menzionavano cause di sconosciuti ai danni di famose aziende.

La maggior parte di esse si conclusero in un nulla di fatto, del resto alcune accuse erano veramente ridicole, ma fatto sta che da quel momento le grandi aziende iniziarono a loro volta a brevettare di tutto. Dal design alle interfacce grafiche, si era riaperta una seconda ondata di brevetti, questa volta però da parte delle aziende. Mi ricordo addirittura che Google brevettò il layout della sua pagina, logo al centro e barra di ricerca sotto, faceva quasi ridere la cosa.
All’inizio si pensava che la causa di tutto questo fermento fosse il fatto che i colossi dell’informatica non volevano più avere i bastoni tra le ruote come era accaduto poc’anzi, un modo per avere le spalle coperte insomma. Tuttavia oggi ci si può rendere conto che il motivo era ben diverso: i “troll” hanno dato un’ottima idea alle aziende per poter fare profitto anche sfruttando i tribunali!
Se la cosa era triste da parte dei soggetti privati, ora che sono entrati anche questi colossi nel giro la cosa diventa alquanto schifosa da parte loro, in quanto è uno squallido tentativo di disfarsi della concorrenza e poter fare ancora più soldi di quanti già ne abbiano. 

Fare soldi alle spalle degli altri è roba da "Troll"

Il sistema operativo Android, proprietario di Google (che ultimamente sto citando un po’ troppo spesso) è una delle vittime più illustri di questo giro. Questo sistema operativo (spacciato dall’azienda di Mountain View come Open Source dimostratosi in realtà molto poco “open”) ha subito un “attacco giuridico” da parte di Apple, Oracle e Microsoft. In particolare quest’ultima chiede, a causa di violazioni di diversi brevetti di loro proprietà, 15 dollari per ogni dispositivo Android venduto. Del resto Microsoft è abituata a fare soldi con il lavoro degli altri (chi ha detto DOS?).

Oracle è un’azienda che opera soprattutto in campo server per la gestione dei database, ma è conosciuta anche in ambito Desktop per OpenOffice, VirtualBox ed il famoso Java. In particolare Oracle sostiene di aver offerto a Google la possibilità di adoperare la piattaforma  Java (su licenza) sul proprio SO, tuttavia G. avrebbe rifiutato ed ha sviluppato una piattaforma proprietaria. Ecco pare che questa violi diversi brevetti Java. Se le cose sono andate veramente così in questo caso Google se l’è cercata.

Il pochissimo tempo, Android è diventato il SO mobile più utilizzato (dopo Symbian): questo non piace a Microsoft e Apple.
Infine c’è Apple, azienda di cui purtroppo non riesco a parlare bene a causa del suo modello di business, mirato a distruggere la concorrenza e a far pagare ai consumatori più del dovuto. L’azienda di Cupertino è senza dubbio LA PIU’ ATTIVA nel settore brevetti. In passato ha sempre accusato Microsoft di aver copiato la loro interfaccia grafica, quando in realtà ENTRAMBE le aziende l’hanno copiata alla Xerox.
Oggi però si è specializzata meglio in questo particolare modo di fare profitto, infatti si è fatta carico di numerose denunce contro diversi produttori di telefoni Android, in particolare HTC, Motorola e Samsung, a causa della violazione di diversi brevetti.
La “lotta” giudiziaria più serrata è ovviamente contro Samsung, detentrice della seconda posizione tra le aziende che producono cellulari (la prima è Nokia). Apple ha denunciato l’azienda Sud Coreana in quasi tutti gli stati del mondo, accusandola di aver prodotto dispositivi simili a iPhone e iPad. Ultimamente ha ottenuto persino una vittoria in Europa, dove ha impedito le vendite del Galaxy Tab in tutto il vecchio continente (zona ridotta poi alla singola Germania a causa di una falsificazione degli atti di accusa da parte di Apple sulle dimensioni effettive del Galaxy).

Apple agirà pure in maniera scorretta nei confronti della concorrenza, però Samsung a volte non è che abbia così tanta...originalità
Questo caos giudiziario ha portato le aziende ad acquistarne altre, non tanto per differenziare o aumentare la produzione, ma per i brevetti e le proprietà intellettuali che ne derivano. Non c’è tanto da stupirsi dunque se l’acquisto di Motorola da parte di Google avvenuto qualche giorno fa ha portato nelle “tasche” di G. quasi 20000 brevetti, ed è solo una delle tantissime aziende che Google ha assorbito. Chi sa che un giorno non faccia quello che sta facendo oggi Apple e (in misura minore) Microsoft.

Il brevetto è un utile strumento per difendere le proprie idee ed evitare che altri possano copiarle e fare profitto alle spalle di altri. Come in tutte le cose belle però c’è qualcuno che esagera, spinto dalla mania ossessiva di fare sempre più soldi, sfruttando questo strumento come non si dovrebbe, brevettando cose “inbrevettabili” (forme rettangolari per i dispositivi o aspetti più che secondari dei software) che non fanno altro che BLOCCARE il progresso tecnologico, in maniera simile a quanto è accaduto con le automobili ad idrogeno, già pronte per la realizzazione ma mai realizzate. In fondo queste aziende non sono molto differenti dalle industrie petrolifere.