mercoledì 31 agosto 2011

Microsoft e Apple pensano al sistema operativo unico?


Come ho spesso parlato su questo blog, la sottile linea che separa i computer dai dispositivi mobile sta sempre più scomparendo. Le aziende che prima producevano PC desktop o notebook stanno spostando i loro volumi di vendita verso smartphone e tablet, seguendo il cambio direzione intrapreso per primo da Apple, proprio come un branco di pesci in un oceano. Del resto quando si parla di centinaia di milioni (se non miliardi) di fatturato si fa di tutto.
Malgrado Acer preveda un calo delle vendite di tablet una volta passata la moda, Microsoft e Apple non sembrano pensarla così. Cerchiamo di capire in che modo i due colossi della Silicon Valley affronteranno la situazione.

Microsoft non è certo una novellina nel realizzare sistemi operativi per dispositivi mobile. Già nel 1996 sviluppò Windows CE, un SO destinato a PDA e Palmari (i tablet di una volta) nonché ai Pocket PC. Successivamente l’evoluzione di questo sistema ha determinato l’uscita della ben più nota famiglia Windows Mobile. Sfortunatamente però, Windows Mobile non ha mai brillato nella categoria smartphone, a causa del fatto che il suo kernel (derivato direttamente da CE) non è mai stato adeguato allo scopo. Del resto la politica di Microsoft è sempre stata quella di portare avanti il kernel finché si può.
Peccato però (in realtà è una fortuna) che la concorrenza non sta a dormire: se il marchio Windows tra i computer riesce a sopperire alle mancanze del SO, nel mondo della telefonia non è andato affatto così.

Gli antenati dei nostri tablet, basati su Sistema Operativo Windows Mobile
Symbian infatti è stato il leader incontrastato fino all’arrivo di iPhone, che ha decisamente scosso il mercato con l’introduzione di iOS. Nacquero dunque Android e solo successivamente Windows Phone 7 che, insieme ad iOS, sono partiti all’inseguimento di un Symbian destinato a quanto pare ad essere sorpassato (Android sembra essere in vantaggio).
Parliamo dunque di iOS: a differenza di Microsoft, quando Apple ha presentato nel 2007 il SO del proprio iPhone, questo si è dimostrato decisamente migliore della concorrenza (tutt’ora è ai vertici della categoria). Questo perché è stato pensato e sviluppato appositamente per l’ambito smartphone e per girare su un solo ed unico dispositivo. È nella politica di Apple del resto sviluppare software in grado di girare solo sul proprio hardware.

Se fino a poco tempo fa i computer incrementavano la loro potenza anno per anno in maniera esponenziale, oggi questa tendenza si è notevolmente ridotta, probabilmente per merito (anzi per colpa) delle console da gioco e dei dispositivi mobile, che hanno ridotto il PC al solo utilizzo da ufficio o per cosette varie che non permettono di fare gli altri dispositivi (ovviamente sto parlando di utenti medi che navigano e giocano). Al contrario gli smartphone e i tablet sono ogni anno sempre più potenti, quasi il doppio, e posseggono un parco software da poter permettergli di fare la maggior parte delle cose che fa un utente medio.

Asus Transformers e Acer Iconia Tab: gli anelli mancanti tra computer e tablet
Per quanto riguarda i tablet, mentre Android e iPhone forniscono per questi dispositivi il medesimo SO che utilizzano sugli smartphone, lo stesso non si può dire di Microsoft. Il suo cavallo di battaglia infatti, a differenze di Google e Apple, non è il SO mobile, ma quello per PC: Windows 7. Tuttavia i pochi tentativi di portare questo SO su tablet (come su HP Slate) si sono rivelati un fallimento. Windows Phone del resto è come un secondo pilota nella scuderia Microsoft, non reggerebbe il peso della competizione su tablet. Ecco quindi che la direzione intrapresa dall’azienda di Redmond è quella di rendere il loro prossimo Windows completamente adattato al mondo dei tablet (Aria fresca dalle finestre). Computer e tablet adopereranno quindi lo stesso SO, arrivando in questo modo quasi a cancellare le differenze tra i due mondi.

Se la scelta di Microsoft è quindi quella di trasferire il proprio sistema su un'altra piattaforma, Apple probabilmente sta pensando di UNIFICARE i sistemi che già detiene su entrambe le soluzioni.
L’ultimo aggiornamento del proprio SO desktop, OSX Lion, ha infatti portato alla luce novità che tendono a rendere molto simile OSX ad iOS. Il launchpad per esempio è stato completamente rivisto per assomigliare (anzi rendere praticamente uguale) al menu delle applicazioni di iOS. Anche i gesti del touchpad sono stati stravolti per assomigliare a quelli compiuti sugli schermi touchscreen, come ad esempio il pinch-to-zoom e lo scorrimento del testo non invertito (ricordo che con il mouse se scorriamo la rotellina verso il basso la pagina va in alto, e viceversa).

Il Launchpad adottato in OSX Lion: chi sa se Apple farà causa a se stessa per la somiglianza con iOS
Non so quanti anni ci vorranno ma presto l’integrazione software sarà completa. A quel punto non so se avrà ragione o meno Acer, ma di certo i tablet non smetteranno tutto d’un tratto di esistere.
Quello che dobbiamo sperare tuttavia è il contrario, ovvero che i computer non diventeranno delle mosche bianche in un mondo pieno di tablet e smartphone. Ma forse sono un po’ troppo pessimista.


giovedì 25 agosto 2011

Fibra Ottica: perché da anni è ferma ai box?


Basta avere un minimo di interesse per il mondo dell’informatica per avere almeno sentito nominare la fibra ottica. Quello che invece può essere sconosciuto è il COSA sia.
Immaginiamo di tornare indietro di 10 anni, dove per andare in rete bisognava sfruttare la “preistorica” connessione conosciuta come 56K, o al massimo la (poco) più veloce ISDN: per noi sarebbe l’inferno! Abbonamenti “Flat” dai prezzi esorbitanti, velocità di download e upload esasperanti, il tutto condito dall’impossibilità di poter effettuare chiamate dal telefono fisso, “occupato” dalla linea 56K. L’attuale ADSL è insomma una manna dal cielo, che ha reso possibile, attraverso velocità di connessione molto maggiori, la navigazione web alla portata di tutti. Tutto ciò è stato possibile sfruttando lo stesso mezzo di propagazione, ovvero quel vecchissimo doppino di rame, presente nelle nostre case da sempre.

Immaginiamo ora uno scenario futuro, ovvero computer e dispositivi in grado di immagazzinare dati e di funzionare sfruttando solamente lo spazio web, in modo da ridurre notevolmente i costi dell’hardware (Ma il cielo è sempre più Cloud), oppure immaginiamo case sprovviste di antenne, grazie al fatto che la TV passa direttamente dal web, videoconferenze in tempo reale ad altissima risoluzione, telemedicina, contenuti on demand e chi più ne ha più ne metta. Tutto ciò potrebbe essere possibile grazie a questa fibra ottica, ovvero un mezzo di propagazione che sfrutta onde elettromagnetiche a frequenze ottiche, frequenze enormemente maggiori rispetto a quelle che viaggiano nei doppini e che quindi permetterebbero un trasporto di dati a velocità MOLTO maggiori.

Una mappa approssimativa della diffusione della banda larga.
Questo è possibile grazie al fatto che le onde ottiche (fotoni) viaggiano confinate tra strati dielettrici (in genere materiali vetrosi e/o polimerici) e non nel rame. Non si tratta quindi un riadattamento del mezzo tramite opportune modulazioni, come nel caso dell’ADSL, ma di una tecnica completamente nuova, che richiede l’ausilio di un NUOVO mezzo di propagazione avente una banda ENORME.
Perché dunque non abbiamo ancora la fibra ottica?
La domanda in realtà è posta in maniera sbagliata. Infatti bisognerebbe chiedersi perché nessuno INVESTE sulla fibra ottica…e per nessuno si intende soprattutto Telecom, la proprietaria della rete di accesso, ovvero la ramificazione dei collegamenti tra tutte le case e le centrali di commutazione, uno dei più grandi tesori nazionali. In rete molti infatti indicano Telecom come il cattivo della situazione, che preferisce continuare a tenere alti i prezzi degli abbonamenti ADSL e a mantenere il canone piuttosto che iniziare ad investire qualcosa per la futura generazione del web.

Struttura interna di un cavo contenente centinaia di fibre ottiche
Descrivere la situazione in poche righe è impossibile, perché nel nostro paese, come spesso accade, la situazione è abbastanza ingarbugliata, a causa del fatto che i provider non riescono a mettersi d’accordo su chi debba fare gli investimenti e in che percentuale. La volta che ci sono andati più vicino mancava solo Telecom, che in una cosa del genere non poteva mancare.  I gestori sono arrivati a dire perfino che Google debba partecipare all’investimento per la fibra in Italia, a causa dell’elevato traffico che genera.
Tuttavia non riterrei Telecom e gli altri gestori come unici responsabili, infatti in tutti questi anni neanche i GOVERNI che si sono alternati hanno cercato in qualche modo di portare un po’ di progresso nel nostro Paese, preferendo alla fibra follie come il ponte sullo stretto (opera tecnicamente irrealizzabile), treni ad alta velocità e auto blu. Tutte cose che hanno rientri economici enormemente inferiori rispetto al denaro generato da una nazione avente accesso alla banda larga ovunque.

Se pensate che la fibra abbia un costo elevato vi sbagliate! Le fibre ottiche per telecomunicazioni hanno costi veramente bassi. Giusto a titolo di esempio, un paio di anni fa la mia università comprò 5Km di fibra per i laboratori: il produttore (se non sbaglio Pirelli) non fece pagare all’università neanche un euro!
La spesa maggiore da affrontare è costituita infatti dal costo dei lavori di scavo e sotterramento della fibra. Il nostro paese infatti non è particolarmente propenso a questi lavori: mentre in altre nazioni abbiamo principalmente strade “normali”, l'Italia abbonda di piazze e luoghi storici, che renderebbero impossibili (o comunque particolarmente costosi) i lavori di scavo. La fibra infatti, a differenza del rame, non può curvarsi più di tanto e richiederebbe percorsi alternativi. Immaginate di dover cablare la zona dei Fori Imperiali a Roma, follia pura…
I provider dunque sono IN PARTE giustificati sotto questo aspetto.

Oggi le fibre ottiche sono semplici da realizzare e costano pochissimo
Il cablaggio dell'intera rete di accesso non è dunque la soluzione, si potrebbe però “avvicinare” la fibra alle abitazioni attraverso un ricablaggio dei tratti che vanno dalla centrale agli armadi che abbiamo sotto casa. Il rame infatti permette elevate velocità (anche sui 100Mbps) se i segnali viaggiano su brevi distanze. Portando la fibra in ogni isolato, non in ogni casa quindi, potremmo permetterci di viaggiare a velocità elevatissime sfruttando lo stesso doppino che da decenni compie il suo egregio mestiere. Telecom e gli altri in questo caso non sono giustificati ora, la banda larga è un investimento di primaria importanza, molti paesi industrializzati lo hanno già capito da tempo, è bene che cominciamo a farlo pure noi, altro che ponte sullo stretto, altro che TAV, altro che digitale terrestre.



domenica 21 agosto 2011

Guerra dei brevetti: i soldi non bastano mai


Nei primi anni 2000, negli Stati Uniti si è registrato un numero insolitamente elevato di brevetti, che riguardavano principalmente aspetti tecnologici/informatici. Gli autori di questi brevetti erano piccole aziende e privati, che non hanno mai realizzato dispositivi che li sfruttassero: erano i cosiddetti “Troll dei brevetti”. Qualche anno fa infatti scoppiò una serie di denunce contro tantissime aziende accusate di violare anche aspetti di infima importanza. Per chi come me seguiva i network di tecnologia, non era difficile imbattersi in notizie che menzionavano cause di sconosciuti ai danni di famose aziende.

La maggior parte di esse si conclusero in un nulla di fatto, del resto alcune accuse erano veramente ridicole, ma fatto sta che da quel momento le grandi aziende iniziarono a loro volta a brevettare di tutto. Dal design alle interfacce grafiche, si era riaperta una seconda ondata di brevetti, questa volta però da parte delle aziende. Mi ricordo addirittura che Google brevettò il layout della sua pagina, logo al centro e barra di ricerca sotto, faceva quasi ridere la cosa.
All’inizio si pensava che la causa di tutto questo fermento fosse il fatto che i colossi dell’informatica non volevano più avere i bastoni tra le ruote come era accaduto poc’anzi, un modo per avere le spalle coperte insomma. Tuttavia oggi ci si può rendere conto che il motivo era ben diverso: i “troll” hanno dato un’ottima idea alle aziende per poter fare profitto anche sfruttando i tribunali!
Se la cosa era triste da parte dei soggetti privati, ora che sono entrati anche questi colossi nel giro la cosa diventa alquanto schifosa da parte loro, in quanto è uno squallido tentativo di disfarsi della concorrenza e poter fare ancora più soldi di quanti già ne abbiano. 

Fare soldi alle spalle degli altri è roba da "Troll"

Il sistema operativo Android, proprietario di Google (che ultimamente sto citando un po’ troppo spesso) è una delle vittime più illustri di questo giro. Questo sistema operativo (spacciato dall’azienda di Mountain View come Open Source dimostratosi in realtà molto poco “open”) ha subito un “attacco giuridico” da parte di Apple, Oracle e Microsoft. In particolare quest’ultima chiede, a causa di violazioni di diversi brevetti di loro proprietà, 15 dollari per ogni dispositivo Android venduto. Del resto Microsoft è abituata a fare soldi con il lavoro degli altri (chi ha detto DOS?).

Oracle è un’azienda che opera soprattutto in campo server per la gestione dei database, ma è conosciuta anche in ambito Desktop per OpenOffice, VirtualBox ed il famoso Java. In particolare Oracle sostiene di aver offerto a Google la possibilità di adoperare la piattaforma  Java (su licenza) sul proprio SO, tuttavia G. avrebbe rifiutato ed ha sviluppato una piattaforma proprietaria. Ecco pare che questa violi diversi brevetti Java. Se le cose sono andate veramente così in questo caso Google se l’è cercata.

Il pochissimo tempo, Android è diventato il SO mobile più utilizzato (dopo Symbian): questo non piace a Microsoft e Apple.
Infine c’è Apple, azienda di cui purtroppo non riesco a parlare bene a causa del suo modello di business, mirato a distruggere la concorrenza e a far pagare ai consumatori più del dovuto. L’azienda di Cupertino è senza dubbio LA PIU’ ATTIVA nel settore brevetti. In passato ha sempre accusato Microsoft di aver copiato la loro interfaccia grafica, quando in realtà ENTRAMBE le aziende l’hanno copiata alla Xerox.
Oggi però si è specializzata meglio in questo particolare modo di fare profitto, infatti si è fatta carico di numerose denunce contro diversi produttori di telefoni Android, in particolare HTC, Motorola e Samsung, a causa della violazione di diversi brevetti.
La “lotta” giudiziaria più serrata è ovviamente contro Samsung, detentrice della seconda posizione tra le aziende che producono cellulari (la prima è Nokia). Apple ha denunciato l’azienda Sud Coreana in quasi tutti gli stati del mondo, accusandola di aver prodotto dispositivi simili a iPhone e iPad. Ultimamente ha ottenuto persino una vittoria in Europa, dove ha impedito le vendite del Galaxy Tab in tutto il vecchio continente (zona ridotta poi alla singola Germania a causa di una falsificazione degli atti di accusa da parte di Apple sulle dimensioni effettive del Galaxy).

Apple agirà pure in maniera scorretta nei confronti della concorrenza, però Samsung a volte non è che abbia così tanta...originalità
Questo caos giudiziario ha portato le aziende ad acquistarne altre, non tanto per differenziare o aumentare la produzione, ma per i brevetti e le proprietà intellettuali che ne derivano. Non c’è tanto da stupirsi dunque se l’acquisto di Motorola da parte di Google avvenuto qualche giorno fa ha portato nelle “tasche” di G. quasi 20000 brevetti, ed è solo una delle tantissime aziende che Google ha assorbito. Chi sa che un giorno non faccia quello che sta facendo oggi Apple e (in misura minore) Microsoft.

Il brevetto è un utile strumento per difendere le proprie idee ed evitare che altri possano copiarle e fare profitto alle spalle di altri. Come in tutte le cose belle però c’è qualcuno che esagera, spinto dalla mania ossessiva di fare sempre più soldi, sfruttando questo strumento come non si dovrebbe, brevettando cose “inbrevettabili” (forme rettangolari per i dispositivi o aspetti più che secondari dei software) che non fanno altro che BLOCCARE il progresso tecnologico, in maniera simile a quanto è accaduto con le automobili ad idrogeno, già pronte per la realizzazione ma mai realizzate. In fondo queste aziende non sono molto differenti dalle industrie petrolifere.



venerdì 5 agosto 2011

GPGPU: schede video che vogliono essere CPU

Nonostante il settore desktop computer sia sempre più una minoranza, a causa del fatto che gli utenti preferiscono orientarsi più su notebook, tablet, smartphone e quant’altro, i maggiori produttori di schede video discrete, ovvero ATI (ora divenuta AMD) e nVidia continuano imperterriti a sfornare schede destinate al settore desktop sempre più potenti, facendosi una feroce concorrenza senza sosta.
Questo perché il loro obiettivo non è soltanto fare profitti in QUEL settore (costituito soltanto da una minoranza degli utenti), ma anche quello di mettersi in mostra, sfoggiando le loro ultime tecnologie, in modo tale che i produttori (anche in altri settori) siano più orientati ad adoperare una soluzione piuttosto che un’altra.

Le schede video sono nate in ambito gaming, dove l’aumento del numero dei poligoni e l’aumento degli effetti degli scenari 3D cominciarono a mandare in crisi la CPU, che già si doveva occupare di far girare il sistema operativo e di creare le cosiddette “primitive”, ovvero i modelli che vanno a creare la scena 3D. La fase che trasforma questi modelli in pixel è detta “rasterizzazione”, ed è la fase più pesante in termini di calcoli. Ecco quindi la necessita di realizzare una unità di calcolo a parte, progettata e realizzata solo per eseguire la rasterizzazione.

Le storiche avversarie nel settore GPU

Il resto dalla storia è abbastanza nota, schede video sempre più potenti e sempre più vicine, in termini di consumi e calore generato, alle CPU. Siamo arrivati a tal punto che, in termini di potenza “bruta”, una GPU è notevolmente più potente di una CPU, anche di fascia alta. Perché dunque ridursi a sfruttare questa potenza enorme solo per la grafica? In realtà il compito della CPU è notevolmente più complicato, perché non si limita a dover eseguire le stesse operazioni, come avviene nelle GPU.

nVidia, il maggior produttore di GPU (sebbene non sia in una situazione di predominio rispetto ad AMD, che detiene anch’essa una bella fetta di mercato), ha deciso oramai da anni di puntare forte su questo settore, con una tecnologia chiamata nVidia CUDA. AMD si è subito accodata proponendo anch’essa una propria soluzione, chiamata ATI Stream. Tuttavia, a causa della maggiore facilità d’implementazione di CUDA rispetto a Stream, gli sviluppatori sono tutt’ora maggiormente orientati  sull’utilizzo della soluzione nVidia.

Riuscire a creare GPU di dimensioni ridotte garantisce una maggiore resa a parità di area e un minore scarto dei chip esterni

Il primo passo compiuto dall’azienda di Santa Clara è stata l’acquisizione di Ageia, una società che aveva iniziato a produrre schede dedicate al solo calcolo della fisica. Successivamente, sfruttando le conoscenze acquisite da quest’ultima, ha iniziato prima un’implementazione a livello software (a partire dall’architettura G80) e infine una a livello hardware, rendendo l’architettura delle proprie GPU maggiormente orientata al settore GPGPU. Quest’ultimo passaggio non è stato proprio indolore, infatti mentre nVidia è da sempre bravissima a fornire driver di buona qualità per i propri prodotti, in ambito hardware non è mai riuscita a surclassare AMD (o meglio sono stati bravi gli ingegneri ATI ad essere sempre competitivi nonostante le minori risorse).

Se prima quindi nVidia non riusciva a sopravanzare nettamente l’avversario in termini di prestazione nel settore desktop, ora da quando hanno cominciato la progettazione dei propri chip grafici in modo da essere orientati anche al calcolo parallelo non destinato alla grafica, l’indice delle prestazioni per watt pende considerevolmente a favore di AMD/ATI. Per ottenere le stesse prestazioni infatti, nVidia è costretta a realizzare chip di grosse dimensioni (il che costituisce un grosso fattore di perdita economica), con consumi molto elevati. Inoltre, la progettazione del loro ultimo chip, con architettura denominata “Fermi” (in onore al fisico italiano), ha incontrato grosse difficoltà, che ha portato ad un notevole ritardo nel suo rilascio. Oltretutto pare che anche l’architettura “Kepler” (successore di Fermi) stia subendo ritardi.

Alla presentazione di "Fermi", nVidia mostrò una scheda FINTA perché non era ancora pronta!

AMD e nVidia quindi adoperano due approcci differenti per affrontare il settore GPGPU. Per capire in che modo, vediamo in che modo operano nel settore server.
La soluzione AMD è chiamata FireStream, sono schede basate su GPU realizzate per calcoli di grafica e successivamente, tramite implementazioni software, convertite al calcolo parallelo.
A fronte dei problemi sopracitati, le soluzioni nVidia Tesla sono schede sempre basate sulle stesse GPU che troviamo nelle schede video, ma queste ultime non sono progettate principalmente per la grafica ma sono realizzate in modo da  adeguarsi molto bene a questo settore, e le prestazioni in questo caso sono nettamente a favore delle Tesla.

Il GPGPU tuttavia non è rivolto soltanto al settore server, infatti le tecnologie CUDA e Stream di cui parlavo prima sono implementazioni destinate a computer desktop, che al momento vengono sfruttate soltanto da un numero limitato di programmi.
La sfida alle CPU è lanciata, Intel e AMD stessa hanno risposto proponendo processori con parte grafica integrata. Lo scenario hardware è sempre più in vena di cambiamento e purtroppo sempre più complicato. 


martedì 2 agosto 2011

Caro vecchio 3D che non sei altro

Il forte legame tra tecnologia e consumismo è forse l’aspetto più brutto di questo settore. Se da un lato le tecnologie portano ad un miglioramento della vita, dall’altro contribuiscono (se pure in misura molto minore di altre cose) alla devastazione del nostro pianeta a causa di volumi di produzione elevatissimi dati dal consumismo. Questo perché chi produce tecnologia lo fa, ovviamente, per un solo scopo: vendere.

Il profitto dato dall’innovazione tuttavia, può non bastare. È il caso per esempio delle major cinematografiche, le cui produzioni hollywoodiane portano nelle loro casse milioni di dollari, a fronte tuttavia di spese di produzione divenute anch’esse milionarie a causa dell’uso di effetti speciali sempre più complicati, di attori strapagati e di campagne di marketing stratosferiche. Sono queste le situazioni in cui è necessario INNOVARE, a causa del fatto che per mantenere costanti le entrate, le case cinematografiche devono investire milioni di dollari per ogni produzione, con il rischio continuo che una di queste possa rivelarsi fallimento.

Una volta appreso che il pubblico non è attratto più come un tempo dagli effetti speciali, dai gadget e dai videogiochi ispirati ai film (questi ultimi realizzati spesso e volentieri in maniera scandalosa), è stato il momento del cinema 3D.
Il 3D è quindi l’innovazione di cui parlavo? Assolutamente No.
La tecnica del cinema 3D è nata già negli anni 20, in pratica pochi anni dopo la nascita del cinema. Ha avuto la sua prima diffusione di massa a partire dagli anni 50. Successivamente, proprio come accade con la moda, è stato abbandonato e “riesumato” diverse volte, l’ultima delle quali in concomitanza con l’uscita del film “Avatar”.

Il film Avatar, oltre ad essere il promotore del rilancio del 3D, è il film che ha incassato di più nella storia


Ecco quindi che, dove non è stato possibile innovare ancora, hanno utilizzato una tecnica già ampiamente collaudata in diversi settori, ovvero il riutilizzo delle “vecchie” tecnologie. Questa volta tuttavia la cosa mi lascia un po’ perplesso, perché mentre per esempio con il touch screen (anch’esso una tecnologia vecchia rispolverata e rivenduta come nuova) ha apportato in un certo senso una innovazione, con l’utilizzo della tecnica capacitiva ad esempio, il 3D è stato ripreso pari pari, con i soliti scomodissimi e bruttissimi occhiali e l’effetto mal di testa per chi non è abituato. Come se non bastasse il 3D non viene offerto come un omaggio, magari per invogliare la gente ad andare al cinema, ma ce lo fanno PAGARE 2€ su ogni biglietto.

Ovviamente il 3D non si ferma solo al cinema, una volta rispolverata la tecnologia infatti i produttori di televisori si sono subito affrettati a lanciare sul mercato televisori 3D, con i rispettivi occhiali non compatibili con altre marche, giusto per far spendere al cliente il più possibile. Ai produttori di TV si sono affiancati Sony (con il supporto 3D per i giochi Play Station 3) e nVidia con 3D Vision.
Sarebbe tutto fantastico se non fosse per quei maledetti occhiali, che rendono la visione meno fruibile e più scomoda, inutile negare l’evidenza.

Esistono anche diverse indagini sul fatto che gli occhiali 3D siano dannosi alla salute, ritengo tuttavia che sia un allarme ingiustificato

Fortunatamente però, il successo di quest’ultima moda ha risvegliato anche i settori di ricerca di alcune aziende, che hanno cominciato già da tempo a progettare e sviluppare display 3D senza occhialini, insomma quello che mi piace definire il VERO 3D.
Esistono vari metodi per ottenere l’effetto, alcuni fastidiosi, altri meno.In effetti questa nuova tecnologia è ancora parecchio acerba, sarebbero necessari ulteriori anni di ricerca. Purtroppo però la gente è “affamata” di 3D, è stato quindi necessario lanciare sul mercato questi nuovi display, in modo da sfruttare l’occasione ghiotta.

Da dove cominciare dunque? La difficoltà di realizzare schermi 3D di grandi dimensioni e la tendenza di mercato verso i dispositivi mobile ha fatto ricadere la scelta proprio su questi ultimi. Gli esempi più famosi sono il Nintendo 3DS e l’LG Optimus 3D. Di questi due ho provato solo il primo e sinceramente non mi è piaciuto per niente.

Il Nintendo 3DS non sta riscuotendo il successo sperato, ma Miyamoto è sempre felice ed è questo che conta

Finita la “corsa ai pixel” è iniziata la “corsa al 3D”, la speranza è che si vada verso un abbandono di quegli orrendi occhialini e si sviluppino schermi con supporto 3D reale. Se occorreranno ancora anni non importa, le cose migliori sono quelle fatte bene.

PS: un ringraziamento allo staff de ilbloggatore.com per aver inserito il blog