VoIP e NAT – Il protocollo STUN, parte prima

Tempo fa mi sono state sottoposte alcune domande riguardanti il VoIP, soprattutto come utilizzarlo in presenza di firewall e NAT che possono rendere impossibile la comunicazione a voce su IP. Dalla semplice risposta che mi ero proposto di scrivere, ne è scaturito qualcosa di un po’ più articolato, che prende di petto alcuni dei problemi nei quali incorrono gli utilizzatori del VoIP, tentando di dare una semplice spiegazione teorica. Il testo è diviso in due differenti parti, per dare al lettore il tempo di assimilare i contenuti in maniera graduale. L’inizio riprende alcune domande che mi sono state poste, per poi passare a un approfondimento teorico.

Ci sono altri protocolli che mi sarebbe utile avere?

Al limite il protocollo proprietario di Skype, se vuoi usare questo servizio per chiamare e ricevere, oppure IAX per il supporto dei centralini Asterisk. A dire la verità, il discorso sarebbe un poco più complesso, ma esula da ciò che ci interessa ora.

Ora, non penso proprio che tu possa implementare un centralino Asterisk a casa e comunque potresti interfacciarti tramite SIP.

Per Skype, si tratta di un protocollo proprietario. Questo dipende da te. Esistono in commercio, e li trovi in qualsiasi magazzino di elettronica (Mediaworld, Euronics, Saturn, per esempio), degli ATA Skype. Con questa soluzione, però, rimani vincolato a questa architettura, mentre con SIP puoi interfacciarti a parecchi provider VoIP sul mercato. Hai più soluzioni aperte, o come sarei tentato di dire, più Sorgenti Aperte.

Al limite, verifica di avere SIP2 (RFC 3261). Non starei ad approfondire i protocolli di trasporto e i codec: per un’utenza domestica sono dettagli che hanno poco senso. Prendi un prodotto “mainstream” e inizia a telefonare, vedrai che andrà tutto bene.

Leggi tutto

AFRICA@home

Che cos’è AFRICA@home?

AFRICA@home è un sito web dedicato a progetti che utilizzano potenza di calcolo donata da volontari per contribuire a cause umanitarie in Africa. La disponibilità di capacità elaborativa ha un enorme potenziale nell’aiuto per la risoluzione dei pressanti problemi sanitari e ambientali che stanno affrontando i paesi in via di sviluppo . AFRICA@home combatte questo problema fornendo un framework comune per i progetti di utilizzo di risorse computazionali offerte volontariamente e che si focalizzano sulle necessità del continente africano. Un obiettivo importante di AFRICA@home è il coinvolgimento di studenti e università africane nello sviluppo e nella gestione di questi progetti. La prima applicazione sviluppata per AFRICA@home si chiama MalariaControl.net, un programma in grado di modellizzare le modalità in cui la malaria si diffonde in Africa e l’impatto potenziale che i nuovi farmaci antimalarici possono avere nella regione.

Altre informazioni su MalariaControl.net.

Altre informazioni sul volunteer computing.

Cos’è MalariaControl.net?

I modelli di simulazione delle dinamiche di trasmissione e degli effetti sulla salute della malaria sono uno strumento importante per il controllo di questa malattia infettiva. Tali modelli possono anche essere utilizzati per determinare le strategie ottimali per la distribuzione di reti antizanzare, chemioterapie o nuovi vaccini che sono attualmente in fase di sviluppo e test. Questa modellizzazione è molto intensiva dal punto di vista computazionale e richiede simulazioni di popolazioni umane piuttosto vaste con set diversi di parametri relativi a quei fattori sociali e biologici che influenzano la distribuzione della malattia. Lo Swiss Tropical Institute ha sviluppato un modello computazionale per l’epidemiologia malarica e successivamente ha impiegato la sua capacità elaborativa interna, circa 40 PC, per svolgere degli studi preliminari. Per convalidare questi modelli e per simulare adeguatamente la scala completa degli interventi e dei pattern di trasmissione appropriati per il controllo della malaria in Africa, è necessaria una potenza di calcolo molto più grande. E’ stata quindi creata MalariaControl.net, allo scopo di sfruttare la disponibilità elaborativa volontaria di migliaia di persone in tutto il mondo, per aiutare a migliorare l’abilità dei ricercatori di prevedere, e quindi controllare, la diffusione della malattia. Basandosi su esperienze pregresse, ci si aspetta che l’applicazione MalariaControl.net sia completata nel giro di pochi mesi – utilizzando i PC di migliaia di volontari – un volume di elaborazioni che normalmente richiederebbe 40 anni per concludersi con la capacità computazionale a disposizione degli scienziati che hanno sviluppato l’applicazione. Inotlre, basandosi sempre sull’esperienza passata, molta di questa potenza elaborativa volontaria arriverà dai paesi sviluppati – Nord America ed Europa, in particolare. Infine, uno degli obiettivi principali di AFRICA@home è il coinvolgimento delle Università africane e delle istituzioni nello sviluppo e nell’esecuzione delle applicazioni che gireranno sui computer dei volontari.

Altre informazioni sulla malaria.

Così, se vi sembrasse un po’ astruso l’utilizzo del vostro computer per cercare degli alieni, potreste dedicarne la potenza di calcolo per qualcosa di più terreno e salutare. Se vi sembra la cosa giusta da fare, andate su Malariacontrol.net e scaricate il client, disponibile per Windows e GNU/Linux. Ah, ovviamente installatelo e lasciatelo acceso. Va che vi controllo, eh?

SNAP, il nuovo protocollo più veloce dell’ADSL

Ecco il mio primo podcast, semiserio, ovviamente. Lo potete scaricare da qui, oppure ascoltare direttamente online con il riproduttore flash su questa pagina.

[audio:https://www.zarrelli.org/blog/wp-content/uploads/2006/05/2006-05-01-podcast.mp3]

Attenzione: sono 20 minuti per 11 Megabyte.

Di seguito, trovate la traccia utilizzata durante il podcast.

All’inizio fu l’esperimento di Bergen (1999), nel quale venne definito il protocollo “IP over Avian Carriers”, del quale trovate i dettagli nella relativa RFC 2549. A seguito di questa nuova specifica venne introdotta anche una rete B2P (Back to Pidgeons), grazie alla quale, nel 2004, è stato possibile spedire tre piccioni viaggiatori su una distanza di 100 Km., con un payload di 1,3 Gigabit, contenuti in 3 flash card. Esperimento interessante, che ha delineato delle prestazioni indiscutibilmente superiori alla classica ADSL.

Il nuovo protocollo Wi-Fly TCP per le connessioni wireless via piccioni, ha però alcuni limiti:

  1. I piccioni non possono volare attraverso le finestre;
  2. I piccioni non volano nell’oscurità, da cui si deduce che, a seconda della latitudine e del periodo dell’anno, la larghezza di banda si riduce del 50% e oltre su base giornaliera;
  3. Infine, il mezzo di trasporto rilascia deiezioni, il che ne costituisce un correlato strutturale sfavorevole.

Come aggirare i problemi di latenza, larghezza di banda e ingombro strutturale di questo nuovo protocollo? Nel 2005, durante il KinnerNet 2005, internet camp tenuto in Israele, un gruppo di studiosi, fra i quali vanno ricordati Yossi Vardi (ex chairman di ICQ), Shimon Schocken (computer scientist) and Ami Ben Bassat (divulgatore scientifico), hanno definito un nuovo protocollo chiamato SNAP (SNAil-based data transfer Protocol) un protocollo sempre basato su infrastrutture biologiche, che però fa affidamento su un nuovo tipo di vettore, la lumaca (in inglese snail) e un antico sistema di trasporto, la ruota.

Il protocollo SNAP

La definizione del protocollo SNAP si basa su alcuni presupposti architetturali:

  • Il sistema si basa su un backend costituito da un cocchio, in stile Ben-Hur, con un giogo in legno di balsa, molto leggero, completato da due dischi DVD utilizzati come ruote, ognuno della capacità di 4,7 Gigabyte;
  • Il frontend, cui il backend è connesso tramite dei finimenti, è costituito da una lumaca gigante africana (Achatina fulica), rinomata per essere la lumaca più veloce in tutto il pianeta;
  • Pacchetti di trasporto dati: I dati vengono trasportati in 2 pacchetti paralleli da 4,7 Gigabyte ognuno.

NOTA: La lumaca gigante utilizzata per il frontend appartiene alla famiglia dei GastroPodi. L’acronimo G-pod è da tenere in considerazione per future applicazioni dedicate al traferimento di musica, mentre G-mail può essere indicato per il trasferimento di email tramite il protocollo SMTP (Snail Mobile Transfer Protocol).

snap.jpg

Risultati

I calcoli dedotti dagli esperimenti compiuti sull’architettura indicata hanno evidenziato che, nonostante la relativa lentezza del mezzo biologico, il sistema SNAP è riuscito a trasferire i dati più velocemente rispetto a ogni altra tecnologia convenzionale a oggi esistente. La seguente tabella renderà evidente il confronto:

Tecnologia Kbps
V.34 modem 28.8
ISDN 128
ADSL 1.500
Piccioni 2.270
SNAP 37.000

Problematiche inerenti il mezzo di trasporto

Motivazionale

A sfavore di questo nuovo protocollo è da porre in risalto la componente motivazionale del mezzo biologico, il quale non è coinvolto scientificamente o professionalmente nell’avanzamento delle tecniche di comunicazione dei dati.

Allo scopo, è stato necessario individuare un metodo di costrizione che consentisse di mettere in movimento il mezzo biologico. Tale strumento è stato individuato, a seguito di un’accurata consultazione delle letteratura scientifica, nell’incentivazione motivazionale dello strumento tramite l’utilizzo di una fresca frasca di Sativa Lactuca, nota anche come lattuga iceberg, d’ora in avanti indicato come LGS (Lettuce base Guidance Sub-system).

Routing

Visto che i dati debbono essere veicolati fra due precisi punti, una sorgente e una destinazione, si è dovuto individuare un mezzo per regolamentare il movimento del mezzo biologico all’inerno di una traiettoria predefinita. Questo risultato è stato raggiunto posizionando LGS al centro del campo sensorio del mezzo biologico, giusto di fronte ai suoi peduncoli, traendola gentilmente lungo il percorso più breve fra la sorgente e la destinazione. Questo particolare compito è stato svolto da Yossi Hod, un membro del gruppo di ricerca, il quale è anche un pilota commerciale dotato di una significativa esperienza di navigazione.

NOTA: Per ora è stato implementato un sistema di routing di tipo PULL ma vi è la possibilità di adottare un router PUSH based, ponendo dietro al mezzo biologico una mistura di aglio e burro fuso: ciò assicurerebbe alla lumaca la giusta spinta motivazionale in avanti. Aglio e burro fuso possono, in alternativa, essere montati sul cocchio stesso.

Denial of service

In alcune zone nel mondo, soprattutto in Francia, le abitudini gastronomiche locale possono dare luogo al rischio di inibire le comunicazioni tramite una tecnica di denial of service (DOS). In particolare, i francesi dovranno scegliere se vogliono avere dei dati ex-cargo, oppure delle escargot.

D’altra parte, una caratteristica peculiare del protocollo SNAP consiste nell’essere assolutamente immune a rischi di denial of server in quelle zone del mondo dalle tradizioni alimentari kosher.

Vantaggi correlati al nuovo protocollo SNAP

Il nuovo protocollo SNAP consente di risolvere elegantemente alcuni problemi inerenti il protocollo Wi-Fly TCP.

Massimizzazione del mezzo

SNAP consente di ottimizzare il rapporto fra la quantità dei dati trasferiti e la massa del mezzo di trasferimento, in maniera maggiore di quanto raggiunto con il protocollo Wi-Fly TCP. Gli sviluppatori hanno seguito il principio di Efemeralizzazione di Buckminster Fuller, facendo di più con meno, tenendo conto che per trasferire tutti i dati sono stati necessari 1 lumaca vapore di potenza.

Latenza

Come riscontrato per l’utilizzo dei piccioni, anche in questo caso la latenza del mezzo è maggiore rispetto quella raggiunta dalle tecnologie più convenzionali. Ciò nonostante, sebbene ci voglia più tempo affinché il primo pacchetto raggiunga la destinazione, su distanze di poche centinaia di chilometri la latenza di un piccione è minore rispetto a quella assicurata da una spedizione di Netflix, Fedex o dalle Poste.

Funzionamento in ore notturne

A differenza di quanto accade per i piccioni, che non volano di notte, le lumache sono attive anche al buio, ottimizzando quindi il transfer rate rispetto al Wi-Fly TCP.

Rilascio di deiezioni

A differenza dei piccioni, le lumache non rilasciano deiezioni sulla testa di chi si trovi sul suo percorso.

Fonte.

Appendice A: Il modello matematico

Dati

b = dimensione dei dati, in bit

s = durata del trasferimento dei dati, in secondi

Tenendo presente questa notazione, il livello di prestazione raggiunto dal sistema può essere espresso con la seguente uguaglianza:

bps = b/s bit per secondo

Dato che ogni DVD contiene 4,7 Gigabyte di dati, è possibile indicare:

b = 4.700.000.000 * 8 bit * 2 dischi = 75.200.000.000

Il sistema basato su protocollo SNAP ha impiegato 34 minuti e 10 secondi per completare il trasferimento dei dati e quindi:

s = 34 * 60 + 10 = 2.030 secondi

Dati alla mano, quindi, è possibile formalizzare la prestazione del sistema utilizzando l’uguaglianza definita in precedenza:

bps = 75.200.000.000 / 2.050 = 36.682.926

NOTA: E’ importante osservare che tutte le misurazioni sono state effettuate da un osservatore a terra. Se venissero prese direttamente su una lumaca in movimento, i tempi risulterebbero ridotti, in accordo con la teoria della relatività di Einstein.

NOTA: La distanza percorsa dal mezzo biologico durante le misurazioni prese nel corso dell’esperimento è di 52 centimetri, il che porta a un interessante transfer rate di 37 Megabit/secondo.

Appendice B: SNAP II

E’ già allo studio una seconda versione del protocollo SNAP, che consenta di ridefinire il punto debole dell’architettura, rappresentato da LGS. In particolare, il sistema LGS richiede ancora l’intervento di un operatore umano, il che risulta ingombrante e dispendioso.

Nella nuova versione del protocollo, LGS verrà ridefinito in modo da funzionare autonomamente, ponendo un’elegante soluzione ai problemi motivazionali riscontrati in SNAP.

Da notare che SNAP II non ha ancora evidenziato una soluzione agli scarsi livello di servizio riscontrati in Francia, paese ad alto rischio di denial of service.

Appendice C: Le leggi della lumaca

IBM: Il mondo avrà bisogno di sole cinque lumache;
DEC: Nessuno vorrà una lumaca a casa propria;
Microsoft: La nuova lumaca Longhorned (dal lungo peduncolo) è in arrivo;
BillG: Una lumaca a 649 Kbps. sarà più che sufficiente per chiunque;
SUN: La lumaca è la rete.

Appendice D: Musiche utilizzate nel podcast

Le musiche utilizzate nel podcast non sono sottoposti a vincoli SIAE:

Remember the Name (Mystro 1965 Mix).
The Free Software Song.

Bootcamp: da OS X a Windows per il “superior hardware”

Dopo aver lasciato sbizzarrire gli hacker in complicate conversioni, per portare OS X su PC, Apple ha rilasciato ieri Bootcamp, un “invertitore di flusso” per il mercato hardware, più che software. Cosa significa “invertitore di flusso”? Ci torneremo in seguito. Per ora limitiamoci a capire a cosa serve Bootcamp: semplicemente, si tratta di un’utility grafica che semplifica il lavoro di ripartizionamento del disco di un Mac Intel, automatizzando nel contempo la creazione di un cd di driver tramite il quale diventa possibile installare Windows XP sulle nuova macchine Apple, senza troppi problemi. Basta armarsi di un cd di installazione originale di Windows XP, un cd vergine sul quale masterizzare i driver, lanciare Bootcamp e alla fine riavviare il computer: l’utente si ritroverà con un sistema dual boot OS X/Windows XP, praticamente il sogno di molti che ancora non vogliono acquistare un Mac per paura di abbandonare un sistema operativo ben conosciuto e familiare come quello di Microsoft. Da notare che Bootcamp è disponibile per ora in forma di beta gratuita liberamente disponibile, ma sarà integrato nella prossima release di OS X, denominata Leopard e questo lascia pensare a qualcosa più di una semplice helper utility, buttata lì quasi casualmente.

Ma tutto questo, giova veramente e solamente all’utente?
Proviamo a compiere due riflessioni senza rete.

E’ interessante richiamare alla mente la strategia di posizionamento di Apple nella catena di valore che definisce la redditività di un prodotto di largo consumo come iPod: dalla creazione, alla distribuzione, alla fornitura di contenuti digitali, tenuta alla briglia dal DRM applicato ai prodotti iTunes, quasi tutta la filiera è saldamente nelle mani di Apple. Indubbiamente ciò è un bene per l’utente finale: Apple ricava a ogni passaggio un piccolo guadagno e il prezzo di ogni singolo stadio si attesta su valori tutto sommato bassi. E’ l’azione sinergica dovuta al possesso dei vari anelli della catena del valore a consentire che ogni step sia poco oneroso, garantendo nel contempo un buon guadagno complessivo del prodotto iPod, visto come unione fra prodotto materiale e contenuti multimediali offerti dallo stesso player, la casa di Cupertino.

A ben vedere, si tratta della stessa strategia perseguita nel tempo da Apple anche con i prodotti Mac: chiusura verso l’esterno, hardware proprietario, sistema operativo proprietario. Ma questa non ha avuto la stessa fortuna incontrata da un prodotto tutto sommato a basso costo e dall’acquisto compulsivo quale è l’iPod. E basta ritornare al 1997 per sentire Michael Dell suggerire la sua soluzione alla crisi profonda nella quale Apple versava in quegli anni: chiudere l’azienda e restituire i soldi agli azionisti.

Si era al culmine di una parabola discendente, di un meccanismo di produzione di valore negativo, fallito, rimasto confinato in una nicchia di utenti per lo più “creativi”, certo non di massa, tant’è che solo nel 2000 Jobs riesce a recuperare una situazione finanziaria critica e a ridare fiato all’azienda con l’introduzione dell’iPod, ma siamo nel 2001.

Di massa era sicuramente Windows, un sistema tutto sommato sul limine opposto a quello di Apple: un sistema operativo per nulla integrato con la soluzione hardware pilotata, aperto alle incursioni di produttori di ogni dove.

Il risultato? Computer meno costosi, sistema operativo estremamente diffuso, apertura di Microsoft sul fronte delle applicazioni. Non c’è da nascondersi che il fatto di produrre un sistema operativo avvantaggi chi sia intenzionato a scrivere delle applicazioni per questo sistema e Office è la maggior fonte di rendita per Microsoft: è ovunque, utilizzato da chiunque, per qualunque scopo. Ovviamente generalizziamo, ma è una generalizzazione che rende l’idea.

Se Office è la principale fonte di guadagno di Microsoft, più di Windows stesso, nelle sue varie forme, quale è il peso della strategicità dello scrivere o possedere il sistema operativo sul quale questo risiede?

Non sfugge certo il tentativo di Microsoft di spostate parte del business su Live, la piattaforma che centralizzerà gli applicativi e i dati da essi prodotti sui server remoti gestiti da Microsoft stessa. Progetto inseguito da molto tempo, ma che solo l’avvento del broadband diffuso ha consentito di rendere un’idea praticabile, spostando la produttività dal computer periferico, fondamentalmente incontrollabile, a una sorgente di erogazione di servizi remota, centralizzata, maggiormente controllabile.

Il sistema operativo si sta lentamente “virtualizzando”, diventando accessorio rispetto alle applicazioni, ai programmi, che siano dedicati alla produttività d’ufficio, alla gestione delle email, ai giochi ormai molto diffusi online.

E veniamo all’hardware. I Core Duo di Intel non sono una prerogativa esclusiva di Mac e gradatamente, senza troppo clamore, nelle fasce più alte di prodotto, soprattutto per i notebook, stanno arrivando i nuovi processori Intel, associati ai chip di Trusted Computing.

Ma cosa frena gli utenti dal prendere OS X funzionante su processore INTEL e portarlo sulle piattaforme PC dotate dello stesso tipo di CPU? Nulla, in effetti già qualcosa è stato fatto aggirando la protezione dei chip TC presenti, finora sfruttati al minimo delle loro potenzialità.

Prendendo la palla al balzo, però, Apple inverte i termini del gioco: perché portare OS X su PC, quando è Windows che può essere fatto scivolare senza problemi dentro un Mac Intel?

Lo scambio dei fattori, a ben vedere, è molto più redditizio. Non è il portare un sistema software “sconosciuto” su una piattaforma hardware familiare ad ampliare la base di mercato, ma è proprio il contrario, cioè portare un sistema operativo familiare su una piattaforma hardware sconosciuta.

A ben vedere, portare OS X su PC non ha né molto senso nè grandi vantaggi: la piattaforma Mac ha sempre goduto di buone prestazioni e affidabilità proprio per la forte compenetrazione fra sistema operativo e hardware, entrambi in mano ad Apple e quindi ben conosciuti e ben sfruttati. Muovere qualche passo nel mondo dei PC costringe a inerpicarsi in quella babele di periferiche, schede e processori che hanno reso si molto diffuso Windows ma ne ha anche limitato le prestazioni e inficiato la stabilità.

OS X, in fin dei conti, non ne avrebbe molto da guadagnare soprattutto se si tiene conto degli sforzi compiuti da Apple per accreditare i propri computer come oggetti di qualità, facili da utilizzare e costruiti con materiali di buona fattura.

Ha maggior senso l’operazione inversa: portare gli utenti Windows dalle piattaforme hardware PC a Mac.

Perché? Sostanzialmente per eliminare un gap sostanziale che ostacola la diffusione di OS X, ovvero la diffidenza di quegli utenti che sono nati in Windows e cresciuti con le sue applicazioni. Chi si butterebbe a corpo libero in un sistema operativo sconosciuto, con il timore di non ritrovarvi le applicazioni di sempre?

Lungi dal pensare all’utente avanzato, Apple ha a che fare con il cliente che utilizza il computer prima ancora di comprenderlo, che lo accende e vi ritrova quelle applicazioni che è solito utilizzare. Questi possono essere portati a OS X essenzialmente con due operazioni sinergiche:

  1. Con la riaffermazione dell’immagine di prodotto. Mac è semplice, Mac è user friendly, Mac funziona e non ha schermate blu, rosse o verdi. Mac è, dopo il successo di iPod, ancora più trendy, definisce uno stile di vita, un’immagine di sé, veicolata dal prodotto, vincente. Determina una identità di appartenenza a un gruppo connotato da forti attributi positivi e di integrazione sociale;
  2. Rassicurazione dell’utente. In OS X si possono ritrovare le applicazioni che vengono utilizzate in Windows. E se non vi sono, ora diventa possibili tenere Windows su Mac, accanto a OS X, e utilizzare uno o l’altro, forse il meglio di uno e dell’altro.

La transizione, quindi, può non solo completarsi, ma, aspetto più interessante, può iniziare.

L’utente è blandito e rassicurato, viene traghettato in una immagine positiva e nel contempo non è costretto ad abbandonare il mondo di riferimento, un po’ come un bambino che muova i primi passi attaccato alla gonna della madre.

Cosa ci guadagnerebbe Apple? Sicuramente inizierebbe a traghettare nel proprio mondo tutti quegli utenti curiosi, interessanti, ma poco disposti ad abbandonare un sistema operativo, o meglio una serie di applicazioni, utilizzate quotidianamente, a casa come in ufficio.

Altrettanto sicuramente, porterebbe questi utenti a conoscere OS X, visto che Windows XP si installerà solo come secondo sistema operativo, lasciando presente e attivo il sistema nativo Apple.

Infine, porterebbe i clienti a scoprire la qualità dell’hardware Apple, definito nelle parole di Philip Schiller, senior vice president del Worldwide Product Marketing di Apple “superior hardware”, che quindi sarà “more appealing to Windows users considering making the switch”.

Ma a discapito di chi andrà questa transizione? Di Microsoft? Difficile a dirsi. Certo è che se si vogliono cogliere segnali di nervosismo, questi andrebbero, per ironia, attribuiti a Dell, che ha appena acquisito Alienware, azienda specializzata nella produzione di computer che, non a caso, costituisce in parte un omologo di Apple nel mondo dei PC: crea hardware di qualità e computer dall’aspetto molto curato.

Microsoft, dal canto suo, può tutto sommato rimanere a guardare: il proprio sistema operativo inizia un viaggio su piattaforme del tutto nuove, mentre proprio lì dove finora arrivava con difficoltà, nel mondo Apple, ora può entrare a pieno titolo, con le proprie applicazioni in modalità nativa. Se, poi, dovesse perdersi il sistema operativo lato consumer, non è su quello che si crea business, ma su Office, che già ora sta guardando a nuovi orizzonti, lasciandosi dietro i vecchi PC “disconnessi”.

E così Apple arriverebbe a coronare un vecchio sogno, ovvero arrivare a controllare la catena di produzione del valore associata ai computer, strategia riuscita con iPod, assolutamente fallita con i Mac, non tanto per una questione di controllo, quanto per una resa produttiva inficiata dai numeri finora troppo bassi.

Di sfuggita, potremmo accennare a un nuovo problema: con l’avvicendamento di nuovo hardware pare ridursi la fetta di computer privi dei nuovi chip dedicati al Trusted Computing. DRM e TC, due facce della stessa medaglia, paiono essere i leitmotiv dell’industria dei prossimi anni, impegnata a gestire, salvaguardare e ottimizzare la gestione dei contenuti sulle piattaforme end user, decidendo chi può fare cosa, dove e quando.

Cosa fare se il mercato pare imprimere una decisiva svolta in questa direzione? Ci ritroveremo, come per i monitor LCD, senza più la possibilità di scegliere computer non TC? Già, perché basta andare in un qualsiasi centro commerciale per accorgersi che è il mercato dei computer a formare la domanda e non viceversa: provate a cercare un vecchio monitor a tubo catodico. Semplicemente, non se ne fanno più.

E quando non si faranno più computer privi di TC e DRM? Dovremo iniziare a pensare in termini di Hardware Libero? Difficile. Se nel mondo del software la creatività è affiancata da un ridotto costo materiale, nella sfera dell’hardware il discorso cambia radicalmente. Una scheda madre va ingegnerizzata, realizzata in prototipi, provata per poi essere messa in produzione su una linea di gestione appositamente attrezzata. E tutto questo richiede investimenti non comparabili con quelli richiesti per lo sviluppo di un progetto unicamente software.

C’è chi riduce la questione dei DRM a una semplice questione di interoperabilità, tesi interessante ma fuorviante, e chi tenta di far passare il Trusted Computing come strumento essenziale per combattere virus, troiani e malware in generale.

Ma chi ha da guadagnarci in tutto questo?

L’utente, tutto sommato, ben poco. Su gnuvox trovate una serie di link utili a risorse per approfondire i problemi legati ai DRM.

Il mercato ha tutto da guadagnarci, rafforzando il controllo sui “contenuti”, nuova parola d’ordine per il futuro prossimo venturo.

E quando non avremo più scelta? Dove vorrete andare, domani?

Cosa è Unix?

GNU/Linux è un sistema operativo Unix-like, ovvero è un sistema che si comporta come Unix, ma non è Unix. Sembra un gioco di parole, ma il problema si annida nella storia stessa di Unix, un sistema operativo nato più di 30 anni fa per uso commerciale e che è stato standardizzato negli anni attraverso le Single UNIX Specification (SUS), una famiglia di standard utilizzati per qualificare quei sistemi operativi che possono definirsi Unix.
Ricostruiamo, a brevi linee, l’albero genealogico di GNU/Linux, partendo dal lontano 1969, dai laboratori Bell della AT&T, nei quali venne sviluppato il primo sistema operativo per il PDP-7, un calcolatore a transistor dell’epoca. Al primo ricercatore, Ken Thompson, si unì ben presto Dennis Ritchie e insieme diedero vita a UNIX, nome suggerito da Brian Kernighan e nel 1973, Thompson riscrisse UNIX utilizzando il nuovo linguaggio C, ideato da Ritchie. In breve, siamo nel 1975, da questa prima versione viene scritto lo UNIX versione 6, il cui utilizzo si espande anche al di fuori dei laboratori Bell. A questo punto inizia un po’ di confusione: essendo un sistema operativo libero, Unix subisce una serie di mutazioni, rinascendo in differenti versioni, riscritte dai produttori di elaboratori per adattarle alle proprie macchine e spesso incompatibili fra di loro.
Non bisogna avere troppa fantasia per immaginare i problemi legati a questo sviluppo incontrollato: programmi scritti per una variante di Unix non era scontato che funzionassero su un’altra versione, amministrare un sistema Unix significava imparare le particolarità legate alla implementazione di ogni singolo produttore. Insomma, non era vita facile per programmatori, amministratori e nemmeno per i produttori che desideravano fornire insieme al proprio Unix un programma creato per qualche altro sistema, sempre chiamato Unix ma incompatibile. Per ovviare al problema, nel 1984 viene fondata X/Open, una società il cui scopo consiste nel definire gli standard dei sistemi aperti. Nel 1987 AT&T, proprietaria del marchio UNIX, costituisce insieme a Sun, UNIX International, organismo deputato alla definizione degli standard Unix. A complicare maggiormente la questione, gli altri produttori di Unix danno vita alla Open Software Foundation, il cui scopo è, neanche a dirlo, la definizione di standard Unix. Facciamo un salto al 1993, quando AT&T trasferisce le attività legate a Unix alla società UNIX Systema Laboratories, che vende a Novell. A sua volta, Novell vende il marchio X/Open e, nel 1995, cede i laboratori di sviluppo Unix, la cui versione viene definita UnixWare, a SCO. Nel 1996, X/Open e Open Software Foundation si fondono, creando The Open Group, il nuovo organismo deputato alla definizione degli standard UNIX, che da questa fusione eredita gli standard creati da X/Open, per primo il 1770, seguito da UNIX 95 e da Single Unix Specification Versione 2, per passare nel 1998 alla creazione di UNIX 98 e nel 2001 a Unix 03.
Per potersi definire Unix, un sistema operativo deve aderire agli standard UNIX definiti da The Open Group, ricevere la certificazione e quindi acqusisce il diritto di utilizzare il marchio UNIX.
Quei sistemi operativi che non aderiscono integralmente alle specifiche definite da The Open Group, o non vogliono investire il denaro necessario a garantirsi l’utilizzo del marchio UNIX, non possono definirsi sistemi operativi Unix, anche nel caso in cui, come per GNU/Linux, l’ambiente agisca proprio come Unix.
Insomma, GNU/Linux non è certificato UNIX e quindi non può essere definito un sistema Unix, non può ustilizzare il lorgo ma agisce come Unix. Un bel gioco di parole per dire che GNU/Linux non può essere chiamato Unix, ma quando ci si lavora sembra proprio di utilizzare Unix.
Alcuni preferiscono definire GNU/Linux un sistema aderente alle specifiche POSIX, Portable Operating System Interface, un insieme di specifiche, elaborate dal PASC (Portable Applications Standard Committee), comitato dello IEEE, Institute of Electrical and Electronics Engineers, emanate nel 1988 nella prima versione.
POSIX, termine coniato da Richard Stallman, è un insieme di API (Application Program Interface), che consentono di definire una interfaccia standard al sistema operativo e all’ambiente, il che si concretizza nello sviluppo di un interprete, ovvero una shell e di un insieme di utility comuni che facilitino la portabilità delle applicazioni a livello di codice sorgente e non di binario.
Ora, se non è possibile definire GNU/Linux un sistema UNIX, data la mancanza di una certificazione ufficiale da parte del The Open Group e se la definizione Unix-like appare abbastanza ambigua, nell’indicare qualcosa che è come qualcos’altro ma non lo è, indicare GNU/Linux come sistema POSIX compliant può far sorgere quantomeno una qualche ilarità. Nessun dubbio, GNU/Linux aderisce alle specifiche, quindi la definizione è calzante. Aggiungiamo, però, che anche altri sistemi operativi, come VMS, MVS, MPE sono sistemi aderenti alle stesse specifiche. Concludiamo che anche Microsoft Windows NT, per esempio, aderisce a POSIX. GNU/Linux e Windows NT possono essere accomunati sotto le stesse specifiche? Si. Quindi, forse meglio lasciare da parte un sistema di classificazione che non fa direttamente riferimento al sistema operativo, per evitare gustosi equivoci.