Quale futuro per l’Informatica Professionale?

di Adriano Autino


C’era una volta il leggendario Mainframe, con la sua corte di terminali. Chi faceva il software indossava il camice bianco, e lavorava in camere a temperatura ed umidità controllate. Nasceva allora il PdP11, il “calcolatore di processo”. Anch’esso operava in camere climatizzate, ma si collegava con migliaia di fili alle macchine ed agli impianti produttivi, fornendo per la prima volta ai processi industriali, continui o discreti, un controllo computerizzato. Il signor Modicon (o il signor Gould, non so più quale dei due per primo, o forse insieme sin dall’inizio) prese un Pdp11, gli diede una costruzione più robusta, per renderlo resistente ad ambienti aggressivi (come lo sono molti ambienti di produzione) e lo schiaffò direttamente in officina, vicino agli impianti da controllare. Era nato il PLC e nasceva poco dopo, in ambiente industriale produttivo, il concetto di rete distribuita, abbattendo drasticamente i costi di impianto, attraverso la riduzione dei cablaggi, e delle relative canalizzazioni ed opere. Parallelamente vedevano la luce potenti sistemi operativi orientati al real-time: dopo il sistema operativo del PdP11 (di cui non ricordo più il nome), sempre in casa Digital nasceva il VAX/VMS, il più potente, efficace e performante sistema operativo multitasking, multiuser, real-time, che mai sia stato progettato. VMS è stato inoltre il papà di quasi tutti gli standard oggi conosciuti, incluso Unix (e derivati), nato da una costola del VMS come sistema operativo orientato all’office automation. Il mondo del software gestionale, intanto, rimarrà saldamente ancorato al concetto di mainframe e dei sistemi operativi proprietari, fino a quando la stessa IBM non metterà in circolazione il mitico PC IBM, nella prima metà degli anni ‘80, che oggi ci sembra un’epoca molto lontana, quasi preistorica. Si comincerà allora a parlare di “terminali intelligenti”, poi di workstation e di architetture distribuite. Sempre in casa Digital nasce lo standard Ethernet, rete a gestione di conflitto, rete aperta, stocastica per definizione, madre anche dell’Internet che conosciamo oggi. Per parecchi anni, nel mondo gestionale, si sviluppano due scuole parallele ed in conflitto: la rete di PC e workstation, in cui Novell è la tecnologia di rete più usata, e la tecnologia del mainframe con rete di PC connessi.

In fabbrica per qualche anno si parla insistentemente di CIM (Computer Integrated Manufacturing), ma sono poche le imprese che integrano completamente l’automazione con la gestione della fabbrica: il più delle volte il gioco non vale la candela, e ci si limita ad un passaggio di piani con restituzione di dati di produzione, due volte al giorno, tra l’MRP e lo Schedulatore a capacità finita. Se negli anni ‘70 la parola d’ordine era stata “meccanizzare” paghe e contributi, negli anni ‘80 la parola d’ordine è “automatizzare”, comunque, senza neppure badare tanto al ritorno di investimento. Una lunga stagione di possenti lotte operaie aveva portato infatti gli industriali a cercare di mettersi al riparo il più possibile dal rischio sciopero, e l’automazione sembrava lo strumento più adatto, inoltre l’automazione da’ prestigio, e non c’è industria moderna di una certa dimensione che voglia rimanerne priva. Molte piccole e medie imprese manifatturiere non hanno invece integrato, e non integreranno, l’automazione di base nei diversi reparti. Rimangono prive quindi di livello 2, e spesso anche del livello 3, di supervisione di stabilimento: non possono permettersi di affrontare investimenti complessi, laboriosi e dal ritorno incerto; alla cultura della progettazione ad hoc (dominante per tutti gli anni ‘80) questo mercato di seconda ondata preferisce di gran lunga l’assemblamento di prodotti, di cui sia rapidamente verificabile l’efficacia. Sarà l’ISO9000, con le sue procedure di controllo della produzione turno per turno, a costringere queste aziende ad inserire reti di terminalini a penna ottica, per il controllo avanzamento produzione, connessi direttamente al gestionale. Il continuo progredire delle tecnologie porta a maggiori possibilità di scelta e di relativa intercambiabilità tra strumenti con caratteristiche diverse ma utilizzabilità simili. Per l’automazione di base si utilizzano sofisticatissimi e potenti PLC, ma anche schede a microprocessore, e si moltiplicano gli standard di rete di basso livello. Per la supervisione di reparto si utilizzano ormai i Personal Computer, che hanno costi di un ordine di grandezza inferiori ai mini-computer, mentre per la supervisione di stabilimento si continuano ad utilizzare i minicomputer (ma qualcuno utilizza workstation per far girare gli schedulatori), mentre al livello gestionale, come prima avvisaglia di un desiderio di razionalizzazione, nascono le prime architetture client-server.

Ma un gigante sta muovendo i primi passi, mentre già l’interrogativo non è più se vincerà il mainframe o la rete di PC. Non si fa a tempo a scommettere sul primato di Unix (che intanto è cresciuto, anche nel segmento real-time, sino a diventare uno standard) contro Windows, mentre incombe ormai, minaccioso su tutti gli standard, il mercato dell’informatica consumer. E Bill Gates inizia a costruire il suo impero. È iniziata la rivoluzione di cui nessuno ancora riesce ad intravedere la portata: è iniziata l’era del metabolismo dell’informazione, come quarant’anni fa la definì Krafft Ehricke (uno dei pionieri del volo spaziale). Il filo si chiama Internet, ed avvolge come un gomitolo tutto il pianeta. Lo strumento è il PC, diffuso ormai in milioni e milioni di case, come un bene di largo consumo, nato da ben più costosi beni industriali. Per la prima volta è uno standard sviluppatosi fuori dal mondo industriale e produttivo a causare una rivoluzione nel mercato produttivo: la tecnologia internet/intranet è ormai pronta a soppiantare le architetture client/server. Su che tipo di mercato si avventa questo cambiamento? Si tratta di un mercato che ha soldi da investire, reduce da più di 10 anni di pace sociale e di enormi profitti per i grandi gruppi, popolato da miriadi di piccole aziende estremamente mobili ed aggressive. Era un mercato che aveva imparato a proprie spese che è assurdo comprare l’informatica “per la crescita”: quando sarai cresciuto ci saranno tecnologie dieci volte più performanti e dieci volte meno care. Che senso aveva allora comprare le macchine “capaci di crescere con le esigenze del cliente”? Nessun senso, se non per risolvere le esigenze... dei costruttori e dei rivenditori di Hardware. Era quindi sopravvenuta, nel mercato più avveduto, una filosofia del “se mi serve un chiodo oggi non comprerò la vite che potrebbe servirmi domani”.

La marcia delle tecnologie, e del mercato consumer, hanno presto vanificato anche questi propositi di lean innovation: oggi si comprano macchine, sistemi operativi e sistemi di sviluppo software che sono di nuovo estremamente sovradimensionati, rispetto alle esigenze, tanto megabyte e megaherz non costano più nulla. E le architetture Internet/Intranet porteranno le aziende a ridurre drasticamente il numero delle licenze da acquistare e, di converso, i costi di manutenzione software. Tutte rose quindi? Fate caso ad alcuni fatti significativi: la Digital viene acquistata dalla Compaq (costruttore di Personal Computer); lo stesso Unix appare ormai come un ferro vecchio, mentre cresce inesorabilmente Windows NT. È inevitabile: quale prodotto professionale può competere ormai con i numeri del mercato consumer? Ed è il mercato, si sa, che decreta l’ascesa di alcuni prodotti a standard, ed il decadimento di altri nel limbo dei prodotti non più rinnovati e quindi destinati a scomparire. Che c’è di male, in questo? C’è che NT è nato per il multimediale, per l’entertainement, per volare in rete mondiale, e non per fare, per esempio, del controllo di processo in real time. Ma, se non abbiamo altri standard, finiamo per usare NT anche per fare del controllo di processo.

Nella cultura dell’entertainement casalingo, si preferisce un computer veloce ad uno sicuro. Nella cultura delle applicazioni industriali, ed ancor più vale il discorso per settori di frontiera (le vere frontiere del nostro mondo, non quelle virtuali) quali i sistemi di trasporto, il medicale, lo spazio, potrebbe invece avere importanza crescente (si vedano i disastri a catena nelle ferrovie) il tema della sicurezza e dell’affidabilità dei sistemi. Lasciar morire la cultura del real time, e dell’hard real time deterministico, potrebbe essere una di quelle trascuratezze che si pagano a caro prezzo. Non vorrei volare su un aereo i cui sistemi siano stati progettati da un progettista di videogame: una volta precipitati, è difficile iniziare un’altra partita.


Torna alla Home Page