sabato 30 luglio 2011

Anche l’interfaccia grafica fa la sua parte

L’altro giorno sono andato all’ufficio postale per fare un versamento. Quando sono entrato ho visto con grande piacere che c’erano solo 2 persone a fare la fila, per cui ho preso il mio biglietto tutto contento e mi sono seduto.

Con l'uso dei bigliettini le poste hanno eliminato le code, ma non hanno accelerato i tempi

Passano parecchi minuti ma il numero non cambiava, negli sportelli c’erano le stesse persone che c’erano quando sono entrato. Nella mia mente già sono partiti gli insulti agli operatori dell’ufficio postale. Molto spesso li definiamo “incompetenti” o “sfaticati”, affermazioni a volte lecite, ma non è stato questo il caso.
Infatti quando è arrivato il mio turno, ho appreso dall’operatrice che il modulo da riempire per il versamento è cambiato. “Va bè, pazienza” ho pensato, avranno aggiunto qualche clausola che ha costretto al rinnovo del layout del modulo, dal momento che è già tutto pressato in quel foglio A4.
Era dunque questa la causa del rallentamento dei servizi? Assolutamente no, Poste Italiane ha cambiato anche il software dei terminali degli sportelli (in realtà lo ha fatto parecchio tempo fa, solo che nella mia città l’aggiornamento è avvenuto da poco).

Gli operatori erano non tanto smarriti, dal momento che comunque immagino abbiano seguito un corso di aggiornamento per l’utilizzo del software, ma rallentati dai ristrettissimi spazi a disposizione delle righe entro le quali vanno immessi i dati del cliente per eseguire l’operazione. Delle centinaia di migliaia di pixel dei loro monitor, solo poche decine sono dedicate all’inserimento dei dati (ovvero a ciò che effettivamente deve fare l’operatore davanti al PC), il resto è tutto grigio. Spazi lasciati vuoti, a detta dell’operatore, per consentire l’inserimento futuro di nuove funzionalità, corrispondenti probabilmente ai nuovi servizi offerti dalle Poste.

Le Interfacce grafiche dei software destinati al pubblico sono anni luce avanti rispetto a quelle dei software aziendali

Chi sviluppa software per aziende di questa portata infatti non fa le cose a caso, una delle cose da tenere conto nella fase di progettazione di interfacce grafiche è la coerenza, ovvero il mantenimento di un aspetto grafico “standardizzato”, ad esempio utilizzando sempre lo stesso layout e le stesse posizioni degli oggetti, in modo che l’utilizzatore non sia costretto a ricercare ogni volta gli elementi di interesse ad ogni cambio di schermata. Per cui magari assegnare ad ogni funzione una certa posizione potrebbe aiutare, ma se il numero di queste funzione è particolarmente elevato, si crea uno scomodo addensamento, che potrebbe ad esempio compromettere la leggibilità e quindi l’usabilità.

L’interfaccia grafica potrebbe essere vista da un imprenditore (qualsiasi azienda essa sia) come un elemento di contorno, per cui un investimento in tale aspetto potrebbe sembrare ingiustificato. Del resto ad un’azienda che opera in un settore completamente differente da quello IT (Information Technology), cosa diavolo potrebbe interessare lo sviluppo dell’interfaccia grafica del software che utilizzano i dipendenti?
Ragionamento a mio avviso completamente sbagliato, tant’è vero che la coda all’ufficio postale che si è creata (leggasi minore produttività) è dovuta proprio ad un’interfaccia grafica poco adeguata.

Ma le poste sono solo un esempio, pensiamo per esempio ad un rappresentante costretto a dover prendere le ordinazioni dei clienti a mano, a causa della poca intuitività dell’interfaccia del palmare in dotazione. Inserire i dati sul momento porterebbe a grosse perdite di tempo, e ai clienti non piace aspettare. Non sono bravo ad inventarmi situazioni possibili, anche quest’ultimo esempio infatti è un CASO REALE che ho visto.

Bisogna tenere conto inoltre che potrebbero esserci dipendenti di una certa età che ancora lavorano in azienda, già il computer per loro è una sfida, figuriamoci se anche la GUI ci si mette contro

Finiti gli esempi andiamo al punto: la relazione tra aziende e IT è una cosa indispensabile nella quasi totalità delle imprese. Ma quanto e come investire in questo settore?
Si deve investire sempre il GIUSTO, infatti grossi investimenti potrebbero essere ingiustificati in molti casi, per questo è importante sapere COME investire, magari attraverso l’assunzione di gente qualificata in grado di valutare i costi effettivi per la realizzazione di un software, ma soprattutto in grado di valutare la qualità del lavoro svolto, evitando così danni economici. 

mercoledì 27 luglio 2011

The dark side of the Apple

Una schiera di persone, tutte rasate, vestite uguali e disposte in maniera ordinata di fronte ad un maxi schermo, mentre osservano e ascoltano le parole del Grande Fratello, che imprime nelle loro menti sentimenti di odio e allo stesso tempo di obbedienza.
Da lontano arriva una ragazza, vestita con abiti diversi, con lunghi capelli ed un grosso martello in mano che corre verso lo schermo. La polizia la insegue, ma non fa in tempo a fermarla: con un gesto atletico sferra il grosso martello contro lo schermo.

Non sono impazzito, quella che parrebbe un estratto del romanzo “1984” è stata invece la pubblicità del primo computer Apple, uscito proprio nel 1984. Il Grande Fratello non era altro che IBM, detentrice della maggior parte del potere nel mondo dell’informatica. Apple era la soluzione, il primo passo verso una “rivoluzione”. La pubblicità ebbe un impatto stratosferico, fu il primo colpaccio azzeccato della Mela.
In questo intervento vi parlerò di come un'azienda che si batteva per determinati principi sia diventata la cosa contro cui combatteva.

Nella sua storia Apple ha sempre avuto nemici, il primo era appunto IBM
Apple è sempre stata un’azienda che ha portato innovazione, a cominciare proprio dai suoi primi computer, destinati ad utenti finali, non più solo ad aziende, fino ad arrivare agli attuali iPod, iPhone, iPad e così via. In realtà Apple non ha inventato nulla, piuttosto è sempre stata brava a prendere un’idea (anche vecchia), ottimizzarla, pubblicizzarla e rilanciarla sul mercato.
La bravura di Apple era quella di guardare sempre al futuro, senza mai soffermarsi un solo istante al presente. Un’azienda composta da persone libere di operare con la massima autonomia e di sfornare idee senza vincoli….Sembra una barzelletta se si pensa che il motivo del fallimento sia stata proprio questa eccessiva libertà (a detta degli ex dipendenti Apple). La “democrazia” aziendale inoltre era un altro fattore determinante, che portò perfino al licenziamento del fondatore, un certo Steve Jobs (che non ha bisogno di presentazioni).

L’azienda conobbe negli anni 90 un periodo di profondo buio, periodo che portò Apple quasi alla chiusura se non fosse che Steve Jobs acquistò la sua stessa Apple con i soldi che si era fatto con la Pixar. Successivamente acquistò NeXT, azienda il cui SO divenne poi la base dei computer prodotti dall’azienda di Cupertino. Jobs sapeva cosa portò la prima Apple al declino e quindi al suo licenziamento, decise perciò di cambiare completamente strategia. Non più libertà di idee all’interno dell’azienda ma modello piramidale, con lui stesso a capo di tutto.

Steve Jobs mentre presenta il MacBook Air, capolavoro di design e tecnologia
Il successo è garantito dal fatto che a lui le idee non mancano, è una delle persone più in gamba del panorama informatico, del resto Apple è nata anche con lui. I prodotti inoltre sono di buona fattura, il design è ottimo e in quanto a pubblicità ci sanno fare.
All’inizio del nuovo millennio rinasce la nuova Apple, la mela morsicata multicolore diventa una mela morsicata grigia, un marchio destinato a diventare il simbolo della generazione 2000. In poche parole Jobs capì la lezione impartitagli da Bill Gates: il prodotto che vende di più NON è quello migliore, conta l’IMMAGINE. Immagine ampiamente ottenuta grazie ad una combinazione tra stile, design e innovazione, il tutto amplificato da un marketing che ha portato il consumatore a vedere Apple come una sorta di fede.
Il cliente infatti è portato all’acquisto non solo per la qualità del prodotto offerto dalla Mela, ma anche per “l’attrazione” verso quest’azienda. Da appassionati di tecnologia si diventa fan della Apple.
Curiosità: le canzoni dei Beatles sono presenti su iTunes solo da poco tempo, infatti pare che  ai ragazzi di Liverpool non sia mai andato giù il fatto che la loro mela sia stata utilizzata da un'azienda informatica
Il passo finale consiste nel controllo totale del software, impedendo in ogni modo il contatto “esterno” con applicazioni che non sono passate sotto la lente d’ingrandimento della mela morsicata, che obbliga gli sviluppatori a vincoli rigorosissimi da rispettare, si è arrivati perfino al punto che il Flash Player non è supportato dai dispositivi iOS.
Insomma i clienti diventano fan, obbligati ad utilizzare determinati software e schifati per tutto ciò che è al di fuori del mondo Apple. L’atto è compiuto, per battere il Grande Fratello bisognava DIVENTARE il Grande Fratello. Addio vecchia Apple, benvenuta nuova Apple, il mondo è tuo.

venerdì 22 luglio 2011

Ma il cielo è sempre più Cloud

Come ho scritto in diversi interventi di questo blog, l’informatica sta subendo un cambiamento. Certo, l’informatica è SEMPRE in evoluzione, ma nei prossimi anni questo “avanzamento” (se così si può definire) sarà più profondo rispetto agli ultimi anni. Infatti il computer è sempre più uno strumento utilizzato esclusivamente per andare in rete, inoltre ora è possibile accedere al web anche da moltissimi altri dispositivi. Ecco quindi che, da strumento di elaborazione, i nostri PC sono sempre più vicini a dei terminali.

Similmente a quanto accade in un’architettura Client-Server aziendale, l’evoluzione tecnologica apportata dalle telecomunicazioni ha fatto si che i contenuti di cui usufruiamo comincino a trasferirsi man mano sempre di più verso il web. Se prima scaricavamo l’mp3 per sentire la musica ora ci basta scrivere il nome su youtube e ascoltarla in streaming da lì. Se non vi basta come esempio pensiamo a Facebook: moltissime persone acquistano un PC sono per accedere ai social network, dove i dati sono tutti salvati in rete, il resto del PC è pressoché inutilizzato.

Cloud Computing, in breve

L’avanzamento delle telecomunicazioni ha insomma portato in un certo senso una involuzione prestazionale dell’hardware, sempre più concentrato sul risparmio energetico che sulle prestazioni. Basti pensare ad esempio alle CPU che montano i netbook e i tablet, prestazioni paragonabili a quelle di processori di 7-8 anni fa, ma autonomie prossime alle 10 ore.
Insomma, una volta raggiunte le prestazioni sufficienti per far girare i contenuti del browser il gioco è fatto, manca solo una cosa: dove memorizzo i dati? Ecco che nasce il Cloud Computing, ovvero la possibilità di salvare i dati su un server remoto per poi accedervi in qualunque momento una volta connessi ad Intenet.
La cosa fa storcere il naso? È vero, l’idea di avere dei dati personali salvati su di un server in qualche parte del mondo non mi rende particolarmente felice, infatti tutt’ora non faccio uso di applicazioni cloud, tipo Dropbox (più che altro perché non ne ho la necessità). Inoltre nel caso non sia possibile accedere ad internet, anche i dati saranno inaccessibili.

I dati di migliaia di utenti vengono salvati in stanze simili a questa

La cosa però risulta estremamente utile nel caso si debba poter lavorare con gli stessi dati da dispositivi diversi: niente backup, niente trasferimenti continui da una postazione all’altra e possibilità di accesso e modifica su dispositivi di ogni tipo. Anche le foto caricate su Facebook sono un esempio di cloud, se per esempio vogliamo far vedere ad un amico le foto delle nostre vacanze, basta accedere, anche da un telefono, e abbiamo subito le foto pronte da sfogliare.

Nell’articolo precedente ho parlato di Chromebook, il primo computer/dispositivo che sfrutta completamente il Cloud Computing. Google infatti è stata (anzi è) una delle prime aziende a puntare di più sul cloud (e vorrei vedere, dato che il web è il suo mercato), creando strumenti innovativi come Google Docs, un editor di documenti simile a Word, ma completamente online, compresi i salvataggi dei file. Anche Microsoft ha dato un suo contributo, sulla falsariga di Docs, con la suite Office Live.

L'uomo ha sempre sognato di volare tra le nuvole, per ora ci possiamo limitare a farci andare i nostri dati (in quelle virtuali si intende)

Il cloud è solo una delle tante innovazioni informatiche che lo sviluppo della rete ha portato. A mio avviso l’unico grande ostacolo per la diffusione capillare di questo servizio e l’attuale impossibilità di potersi connettere in ogni luogo per accedere ai dati, a conferma di quanto sia necessario lo sviluppo della banda larga nel nostro paese. Per la questione sicurezza si potrebbe dedicare una parentesi a parte, il dover affidare i nostri dai ad un servizio “esterno” crea un forte senso di paura di poterli perdere o che qualcuno possa accedervi senza permesso, però possiamo porci una domanda: è più sicuro un server con dati criptati e sistemi di protezione all’avanguardia o in nostro PC? A mio avviso nessuno dei due.

lunedì 18 luglio 2011

Chromebook: il computer È il browser

Nonostante fosse già cominciata la capillare diffusione nelle case, fino a 10-12 anni fa il computer era visto quasi esclusivamente come strumento di lavoro. I prezzi erano ancora abbastanza altini, non inaccessibili ma comunque più alti di oggi, per cui pochi si incaricavano di una spesa che superava abbondantemente il milione di lire per accaparrarsi un affare di cui non sapeva che farsene.
La presenza di almeno 1 PC per casa, situazione in cui ci troviamo oggi, è dovuta senza dubbio grazie alla diffusione di internet. Il Web è la “linfa vitale” dei nostri computer, dato che la maggior parte delle persone non lo utilizzano per giocare (nonostante siano più potenti delle attuali console) o per lavorarci con vari programmi. La stragrande maggioranza di chi acquista un PC oggigiorno, lo fa per andare su internet (leggasi Facebook per molti).

Google, azienda di cui non nascondo di avere parecchia stima per tutte le innovazioni che ha portato e per avere contribuito maggiormente allo sviluppo e alla diffusione di internet, pare aver interpretato in maniera molto “estrema” questo concetto: se il PC viene utilizzato per andare su internet, a cosa serve tutto il resto?

Ecco quindi che nasce l’idea di un PC progettato ESCLUSIVAMENTE per il web: Chromebook.
Il nome deriva ovviamente dal famoso browser di Google, che in pochissimo tempo si è imposto come terzo browser più diffuso al mondo, sto parlando di Google Chrome. Ecco, il Sistema Operativo di questi “computer” è costituito solamente dal suddetto browser. Dal momento dell’accensione fino allo spegnimento abbiamo sempre davanti l’interfaccia di Chrome.

Samsung Serie 5, il primo Chromebook sul mercato
Una delle scelte più coraggiose del mondo IT, senza internet il Chromebook è solo un oggetto inutilizzabile, o per lo meno utilizzabile solo per le poche cose che è possibile fare offline come scrivere i testi o leggere contenuti da dispositivi USB, cose rese possibili grazie alle applicazioni di Chrome OS, che non sono altro che le estensioni del browser Chrome.
Ma quali sono i vantaggi? Velocità, in una manciata di secondi si è già online, è come accendere una calcolatrice per fare 2 conti al volo, compattezza, peso, autonomia e semplicità di utilizzo. Il prezzo non lo metto tra i vantaggi, dal momento che montano lo stesso hardware di un netbook, ma i prezzi sono leggermente più elevati (probabilmente a causa della presenza di un SSD, anche se di soli 16GB).
Se si esce un attimo dall’ottica “computerista”, che potrebbe portare a perplessità per le scelte prese da “big G”, il Chromebook parrebbe proprio pensato per un pubblico interessato SOLTANTO alla navigazione. La velocità di avvio in particolar modo fa si che accedere ad internet con questo dispositivo sia veloce come consultare rapidamente un libro oppure effettuare una chiamata, senza avere la noia di aspettare il boot del PC ed il caricamento del SO. La tastiera inoltre è pesantemente rivista: via il caps lock, i tasti funzione e tutto ciò che un utente medio non utilizzerà mai.

La gestione dei dati è tutta orientata sul cloud, quindi nessuna memorizzazione nell’SSD in dotazione, che funge da buffer e a volte da memoria quando si è offline, ma è tutto sincronizzato nei server di Google, come anche sono sincronizzati i segnalibri, le applicazioni e tutta la suite di strumento online che mette a disposizione Google. Insomma più che un PC è un terminale di accesso, terminale che funziona dannatamente bene (come ci ha abituati G), a parte qualche piccolo intoppo tipico dei nuovi SO al debutto.

Google è nato come semplice motore di ricerca, oggi offre numerosi servizi e applicazioni gratuitamente
dannatamente bene (come ci ha abituati G), a parte qualche piccolo intoppo tipico dei nuovi SO al debutto.
Il primo produttore che ha avuto il “coraggio” di buttarsi in questa sfida è Samsung, proponendo il Serie 5 in 2 versioni, una solo Wi-Fi e una con Wi-Fi e 3G. Il design è analogo agli ultraportatili Samsung e non è possibile in alcun modo espandere o cambiare le componenti interne (tipo Macbook per intenderci) dal momento che è tutto saldato sulla scheda madre. Presto (spero) seguiranno anche altri produttori, un po’ come è successo con Nexus One.

L’informatica sta cambiando e lo sta facendo su diversi fronti. Abbiamo oltre ai computer gli smartphone, i tablet e ora ci prova anche Google con questo Chromebook. Lo scenario è estremamente interessante.

giovedì 14 luglio 2011

Che fine ha fatto il WiMAX?

In fatto che molti neanche sanno cosa sia, dimostra ancora di più il fatto che il WiMAX nel nostro paese non è mai partito, nonostante le aste (con le relative concessioni) siano terminate dal 2008.

L’Italia è indietro, anzi, molto indietro per quanto riguarda la diffusione della banda larga. Siamo tra gli ultimi d’Europa e perfino la Libia, dove c’è stato un regime fino a poco fa e tutt’ora c’è una guerra, ci supera. Il WiMAX è uno standard approvato da IEEE (l’ente che si occupa di approvare standard in ambito di telecomunicazioni) nel 2001, e consiste nell’utilizzare frequenze radio, appartenenti sia alla banda “libera” (quella utilizzata per il wifi domestico) sia a frequenze su concessione, per diffondere la banda larga in maniera wireless, senza quindi dover aspettare che il gestore di rete fissa decida di estendere la banda larga su doppino telefonico anche in aree non coperte.

Il logo del WiMAX: provate a chiedere a qualcuno se l'ha mai visto o sentito nominare

Nel nostro paese la norma prevede l’utilizzo di questa tecnologia nella banda 3,4-3,6 GHz, ovvero frequenze su concessione. È stato quindi necessario eseguire un’asta pubblica per la concessione delle frequenze nelle varie regioni.
Sarebbe bello poter dire: “L’asta ha avuto luogo in contemporanea agli altri paesi d’Europa, è stata impedita la partecipazione alle aziende che forniscono medesimi servizi (per favorire la concorrenza) e oggigiorno abbiamo un mercato composto da molte aziende, non più un oligopolio, e la banda larga è oramai diffusa sulla maggior parte del territorio”…

…ma purtroppo tutto ciò non è affatto vero. Innanzitutto l’asta è avvenuta con un discreto ritardo rispetto a tutta Europa a causa della precedente assegnazione delle frequenze al Ministero della Difesa che ha fatto un po’ da intermediario. Successivamente è avvenuta l’asta, ma non è stata in alcun modo impedita la partecipazione di operatori telefonici già esistenti.
È nata anche una polemica su quest’ultimo punto, perché qualcuno ipotizzò che ad esempio Telecom avrebbe potuto comprare le frequenze ma non utilizzarle per il WiMAX, facendo così morire la tecnologia per evitare il nascere di qualche forma di concorrenza.


Antenna per WiMAX

A conclusione dell’asta si è raggiunto un incasso totale di 136 milioni di euro, la cifra più alta d’Europa, probabilmente a causa della partecipazione di aziende di telecomunicazioni che hanno alzato l’asticella mentre cercavano di aggiudicarsi le frequenze ed evitare così la concorrenza. Telecom si è aggiudicata diverse frequenze (che ovviamente non ha utilizzato per diffondere il WiMAX), mentre le altre aziende vincitrici non sono riuscite a raggiungere una certa copertura minima imposta dal regolamento (copertura che doveva essere raggiunta nell’arco di 24 mesi).

Il vero colpo di grazia però è stato inflitto dai gestori mobile, quindi Vodafone, Wind, TIM e H3G, con le famigerate chiavette internet! In particolare 3 Italia, nel lontano 2000, vinse la gara relativa all’assegnazione della licenza UMTS e nel 2003 lanciò i suoi primi telefoni capaci di effettuare le videochiamate, sfruttando la maggiore velocità offerta dall’UMTS.
Ma alla gente non interessano le videochiamate, la gente vuole internet e vuole navigare ovunque. Quando i gestori lo capirono era troppo tardi, il WiMAX era cosa già approvata e l’asta era imminente: bisognava fermarlo!

La soluzione a questo problema erano appunto le chiavette HSPA.
Il fatto che la rete era già pronta per offrire questo servizio, i terminali erano già largamente diffusi grazie a offerte del tipo “cellulare a 0 euro” (ma con vincoli contrattuali di 2 anni) e grazie ai pressanti bombardamenti pubblicitari, le chiavette distrussero definitivamente il WiMAX, che già faticava a partire per motivi suoi.


Chiavette internet HSPA: anche loro meritano un certo design, che scherziamo!
Oggi se si vuole navigare ovunque bisogna sottoscrivere un abbonamento mensile con qualche gestore mobile, gestori che non si fanno scrupoli a tenere prezzi altissimi e a far sottoscrivere abbonamenti vincolanti con relative penali, eventualmente un utente decidesse di cambiare.
La diffusione della banda larga su tutto il territorio e la possibilità di accesso ad internet ovunque a prezzi accessibili (oppure gratuitamente), restano ancora sogni lontani dall’avverarsi. La produttività potrebbe aumentare considerevolmente grazie ad internet, ma evidentemente non è nell’interesse dei soggetti che manovrano il nostro mercato.

Con lo switch-off della TV analogica si libereranno tantissime frequenze, vediamo ora cosa faranno o, più plausibilmente, NON faranno per sfruttarle a favore della banda larga.

domenica 10 luglio 2011

Aria fresca dalle finestre

È da diversi giorni che si parla nei network informatici della nuova versione del sistema operativo (SO) che, grazie alla sua semplicità d’uso, alla sua compatibilità con la pressoché totalità del software e ad una campagna di marketing d’eccezione, lo ha reso il più utilizzato al mondo. Per chi non l’avesse capito sto parlando di Windows.

Il pupillo di casa Microsoft tuttavia, in termini di qualità, ha conosciuto da sempre dei periodi di alti e bassi. A prodotti di qualità come Windows XP o Windows 95 si alternano software scadenti come Windows Me o Windows Vista (quest’ultimo non proprio scandente, ma molto al di sotto delle aspettative).
Fortunatamente, l’ultimo lavoro della ciurma di Ballmer, Windows 7, si colloca dalla parte “buona”, tant’è vero che in un periodo di tempo molto breve è riuscito a superare le vendite di Vista (che uscì diversi anni prima) diventando così il vero “rivale” di Windows XP, utilizzato ancora oggi sulla maggior parte dei PC.

Steve Ballmer, il successore al trono di Bill Gates

“Il secondo album è sempre più difficile” per dirla alla Caparezza, creare un successore di un prodotto ottimo non è cosa da poco, perché gli utenti si aspettano molto da esso, più o meno la stessa mole di migliorie che ha apportato Win7. Microsoft ha già deluso con Vista, non potendo permettersi un nuovo scivolone ha deciso di cambiare le carte in regola: il nuovo Windows 8 (sempre che si chiamerà così) supporterà le architetture ARM!
Ok, cercherò di spiegare tutto per chi non è molto informato sulla questione.
Ogni dispositivo (sia esso un computer, uno smartphone, un tablet o altro) ha una CPU che si occupa di gestire il SO (in realtà è il SO che gestisce le risorse della CPU). Ecco, ogni CPU ha una “architettura”, ovvero una struttura standard in modo che il software è in grado di utilizzarla seguendo procedure precise e uguali per tutte. Di architetture ne esistono diverse, ma in generale le più diffuse sono x86-64 (per PC), ARM (per smartphone e tablet) e PowerPC (per console).
Ebbene, oramai da diversi anni Windows supporta solo architetture x86-64. La cosa non era affatto un problema fino a poco tempo fa, ma ora che gli smartphone, ma più di tutti i tablet stanno cominciando inesorabilmente a diffondersi, Microsoft è praticamente fuori dai giochi, a meno che qualche produttore decida di montare una CPU x86, con il conseguente aumento dei consumi a causa dell’inefficienza dell’x86 per piattaforme a basso consumo.
Ecco quindi giustificata la decisione di Microsoft, che ha “fiutato” un possibile cambiamento del mercato, ovvero una traslazione da PC a tablet.
A conferma della cosa, dalle prime immagini dell’interfaccia del nuovo SO, Windows 8 appare un sistema pensato principalmente per schermi touchscreen, grazie alla presenza di icone grandi e desktop scorrevole.

Interfaccia di Windows 8, non mi stupirei se si chiamasse "Windows Arlecchino"

La frase “Windows 8 supporterà le architetture ARM” quindi si può tranquillamente leggere come: Windows 8 sarà orientato ai dispositivi mobile. La cosa non è da poco, perché, a mio modo di vedere, questo significa che nel prossimo futuro ci sarà una rivoluzione del mondo informatico.
Se ripensiamo a fine anni 90/inizio anni 2000,  i computer erano quei blocchi color grigio panna con monitor CRT che occupavano più spazio in profondità che in larghezza. La prima “rivoluzione” in questi ultimi 15 anni è avvenuta con l’arrivo dei computer portatili (notebook), che rappresentavano un vero miracolo per chi non necessitava di elevata potenza e aveva poco spazio a disposizione e necessità di poterlo trasportare.
La “seconda rivoluzione” secondo me sarà data dall’avvento dei tablet, in cui Apple (con il suo iPad) è stata, come in molti casi, l’azienda che ha “lanciato” il mercato. Google si è subito impegnata a fornire agli altri produttori un SO adatto allo scopo (Android 3.0) e Microsoft, che in questi periodi arriva sempre terza, si sta affrettando sviluppare un nuovo SO in grado di entrare anche in questo mercato, che si trova ancora in fase “infantile” ed è destinato a crescere sempre di più.

Oggi i tablet sono molto meno ingombranti. Sono anche molto più belli da vedere

Ultima ma non meno importante “rivoluzione” sarà data dalla possibilità di costruttori di CPU non x86, come nVidia e Qualcomm, di poter finalmente operare anche nel settore PC desktop e notebook con architetture ARM, data l’impossibilità di sviluppare x86 a causa delle licenze.
La “lotta a due” Intel vs. AMD (dove in realtà è quasi un monopolio Intel) potrebbe finalmente diventare un oligopolio composto da più di due sole aziende?
Difficile da dirsi, è più probabile che si concentrino su dispositivi mobile, ma non si sa mai. Io ci spero, del resto una maggiore concorrenza è tutto vantaggio per i consumatori, che siamo noi.

martedì 5 luglio 2011

Fino all’ultimo centesimo

Questa volta voglio parlare di un argomento più “leggero”: i videogiochi.
Questa forma d’intrattenimento, specialmente dopo l’uscita della Nintendo Wii, sta conoscendo un’espansione senza precedenti, tant’è vero che i ricavati in questo settore cominciano ad essere paragonabili a quelli del mondo del cinema.
Tuttavia, mentre un biglietto del cinema costa mediamente 7€ e un film in blu-ray poco più di 20€, un videogame arriva a costare la “modica” cifra di 70€ per console e 50€ per PC (i cabinati oramai sono fuori mercato). A parte un generale aumento negli ultimi anni, i prezzi dei videogame sono sempre stati elevati. Questo perché i videogiochi erano un prodotto quasi “di nicchia”, nonostante il loro sviluppo comporti costi piuttosto elevati ed un cospicuo numero di programmatori;  l’elevato prezzo doveva quindi giustificare i costi di produzione per far quadrare i ricavi.

L'evoluzione dei contenuti a pagamento


Oggi tuttavia non è più così, ovvero, i costi per lo sviluppo sono sempre elevati (anzi aumentati) certo, ma è anche vero che è aumentata di molto l’utenza. Mentre i prezzi dell’hardware decrescono sempre di più (10 anni fa per comprare un PC performante occorrevano 2-3000€, oggi bastano meno di 1000€, come anche sono calati i prezzi delle console), i prezzi del software sono rimasti più o meno costanti, anzi come dicevo c’è stato anche un leggero incremento.
Non ci vuole un genio per capire che le case di distribuzione hanno approfittato di questa “espansione” del mercato per cercare di trarre più profitto possibile (l’unico vero obiettivo delle aziende).
Cosa fare dunque? Aumentare i prezzi?
No, la cosa non sarebbe stata fattibile a causa dei costi già elevati. Portare un gioco a 100€ sarebbe stata una mossa veramente pericolosa. Limitandosi a mantenere i prezzi alti, nonostante i maggiori ricavi potrebbero benissimo permettergli di portarli ai livelli dei DVD o dei blu-ray, si sono inventati la macchina da soldi più spietata che il giovane mondo dei videogiochi abbia mai conosciuto: i DLC.
I DLC (Downloadable Content), per chi non lo sapesse, sono dei contenuti aggiuntivi scaricabili a pagamento da internet che…aggiungono qualcosa al gioco. In realtà qualcuno li potrebbe vedere come un “pezzo” di un’espansione, che sono sempre esistite, ma qui si sta parlando di singoli livelli, mappe per il multiplayer e cazzatine varie tipo vestiti per il personaggio, armi e robe del genere. Tutte cose che gli sviluppatori, se avessero un po’ di RISPETTO per i loro clienti, dovrebbero rendere GRATUITE , per compensare le longevità ridotte all’osso e della scarsa qualità in generale dei giochi che vendono (a caro prezzo).

Speculazione o no, molte persone non si fanno tante domande

Ma la gallina alle uova d’oro è in realtà il multiplayer. Microsoft già nel lontano 2002 fiutò l’affare, introducendo Xbox Live, un servizio che rendeva possibile il multiplayer sulla prima console Microsoft (la Xbox) a PAGAMENTO. Nonostante l’analogo servizio offerto dalla Sony con la sua Play Station 2 fosse gratuito, Xbox Live ebbe più successo, probabilmente grazie alla maggiore qualità e organizzazione del servizio.
Nessuno, tantomeno io, mette in discussione la qualità di Xbox Live (qualità confermata anche con Xbox 360), ma è giusto far pagare il gioco online? Molti potrebbero dire che si paga l’elevata qualità, non sempre riscontrabile nei servizi gratuiti. Personalmente ritengo si tratti di una spesa extra ingiustificata, dal momento che i videogiochi hanno già un prezzo elevato e i costi per mantenere alto il livello di servizio sono ampiamente recuperati dagli introiti derivanti dalla vendita dei giochi.
Come se i DLC, i prezzi elevati e l’online a pagamento non bastassero, le case produttrici e gli sviluppatori, vogliono (giustamente) anche elevati volumi di vendita. Un titolo però non vende all’infinito, e le idee per nuovi giochi non vengono con la stessa velocità con cui il produttore si aspetta di vendere. Il problema è stato facilmente risolto “copiando” al mondo del cinema: i sequel!



Activision ha intenzione di portare avanti ancora per molto il brand CoD, l'obiettivo è raggiungere lo stesso numero di puntate di Beautiful

Finite le idee? No problem, facciamo un altro gioco, molto simile ma cambiamo qualcosina e ci mettiamo un 2, poi un 3, un 4 e così via. Ecco che quindi spendiamo 70 sudati euro per roba come Call of Duty 7, Pro Evolution Soccer 11 (11 non è l’anno), Final Fantasy 13 e chi ne ha più ne metta; senza considerare poi la marea di spin-off che ruotano attorno ai vari brand, nonché i porting su ogni piattaforma esistente, anche se il gioco non è proprio adatto per girare ovunque.

Devo ammetterlo, non è stato tanto un intervento di considerazioni ma piuttosto una critica. Mi crea una certa amarezza però pensare che una forma d’intrattenimento che fino a poco tempo fa si poteva considerare quasi “arte” è diventata nient’altro che una macchina da soldi. Il videogioco è arte? Se un tempo ci si poteva porre questa domanda, oggi non più, perché non è mai stato più lontano di così dall’esserlo.

sabato 2 luglio 2011

Quel che è mio è mio

Il Diritto d’autore è un argomento oggetto di esame nelle facoltà di diritto, ma purtroppo non in tutte le scuole superiori viene trattato. Una persona non informata potrebbe essere completamente all’oscuro sulla materia in merito. Io ricordo di aver fatto qualcosa alle superiori, ma sinceramente ricordo poco o nulla.

Questo discorso mi serviva per introdurre il fatto che AGCOM (Garante delle Comunicazioni) ha approvato la delibera sul diritto d’autore. Il testo del comunicato lo trovate qui:
Il regolamento, per farla breve, consentirà al Garante di poter intervenire attivamente sui siti internet (anche privati) su cui si avrà il sospetto che si stia violando il diritto d’autore. L’intervento può prevedere la cancellazione o addirittura l’inibizione del sito, attraverso un blocco degli indirizzi IP e dei DNS, nonché rispettive sanzioni.


"Nel caso del copyright hanno ragioni da vendere tutti gli operatori dell’industria che si sono stufati di essere lasciati alla mercé di una pirateria dilagante che erode le loro risorse" -Il commissario AGCOM-

Domanda: dal momento che anche siti (o blog) gestiti da privati possono essere coinvolti, quante migliaia di blog dovranno essere cancellati? Infatti non è un mistero che il copyright abbia tantissimi vincoli, a chi non è mai capitato di caricare un video su youtube per poi scoprire che è stato rimosso perché violava qualche diritto d’autore. Questo perché (come accennavo all’inizio) la maggior parte delle persone, me compreso, non sanno in che modo è possibile trattare materiale coperto da diritti d’autore, o più semplicemente ignorano completamente il fatto che stanno facendo qualcosa di illecito.
Finora siti nati esplicitamente per la pirateria, come thepiratebay.org o btjunkie.org, sono stati già da tempo oscurati nel nostro paese. Era necessario emanare questa delibera, che estende la censura in maniera così drastica? Evidentemente per i vertici pare di si.

Un’altra cosa che mi lascia perplesso è il cambio di ruolo del Garante, che diventa in questa faccenda direttamente esecutore, senza passare dalle forze dell’ordine. Quando un sito viene oscurato infatti, generalmente parte anche la relativa indagine, poiché sta violando la legge. Ora invece è AGCOM stessa a poter cancellare un sito internet sospetto se, entro 48 ore dalla richiesta del titolare del copyright di cancellazione del contenuto, il titolare del sito (o il blogger) non fornisce risposta. Il tutto senza passare attraverso alcun organo giudiziario.


Anonymous, un gruppo hacker internazionale, ha deciso di colpire il sito AGCOM per protestare contro la delibera


Insomma, se per caso un giorno inserite nel vostro blog qualcosa che viola qualche diritto d’autore, magari in buona fede, e decidete di farvi una vacanza, potreste ritrovarvi al vostro ritorno il sito bloccato, l’impossibilità di aprirne altri e magari anche un’ammenda da pagare.

La questione, sia essa giusta o meno, mi lascia un po’ di tristezza, perché internet è l’unico mezzo d’informazione veramente libero e ogni volta che subisce una limitazione tende ad avvicinarsi a quella che oggi è la televisione (controllata e censurata). Magari sono troppo pessimista, magari si fermeranno qui.