WP 1110

 

INDIRIZZI E DESTINO DELLA TECNOLOGIA E DELLA RICERCA SCIENTIFICA ALL’ALBA DEL TERZO MILLENNIO

 

Autore: A. Autino

Revisione: 1.01 del 04 agosto 2000      

La revisione 1.01 si deve in larga parte ai commenti di Marco C. Bernasconi

 

1.        LA TECNOLOGIA A SENSO UNICO

 

Per quanto riguarda la tecnologia, il tema che ha preso decisamente il sopravvento, nella prima metà del 2000, è quello della rete di comunicazione detta internet.

 

Con parecchi anni di anticipo, rispetto al focalizzarsi dell’attenzione di grandi masse di utenti ed investitori sulla rete, il corso dello sviluppo tecnologico dei paesi avanzati era già stato segnato, nel bene e nel male, dall’orientamento di tutta l’informatica verso l’utilizzo comunicativo.

 

La comunicazione in rete appare oggi il tema di sviluppo principe a livello mondiale, al punto che i G8, recentemente riunitisi ad Okinawa, hanno messo a punto un piano per aiutare i paesi preindustriali a dotarsi di tecnologie di comunicazione, in modo da non restare tagliati fuori della new economy.

 

Questo tema è così forte da far passare in second’ordine anche elementi che pure, in Paesi dove mancano le infrastrutture essenziali per il vivere civile, avrebbero secondo logica una certa priorità. Sino a qualche tempo fa era giudizio unanime che tentare di favorire lo sviluppo dell’automazione in quella parte del mondo sarebbe stato velleitario, poiché ivi mancano le infrastrutture più basilari, in molti casi persino l’acqua e l’energia elettrica.

 

Oggi la direzione politica planetaria decide unanimemente di bruciare anche la tappa dell’automazione (step che ha segnato il passaggio, nelle civiltà avanzate, dall’era industriale all’era elettronica). Da notare, di passata, anche l’unanimità senza precedenti di tale orientamento: da Bill Clinton fino all’ultimo intellettuale ipercritico cantano, pressochè all’unisono, la stessa canzone. Ovviamente quello che sto tracciando è un giudizio politico. Non dubito che esistano molti pensieri critici, rispetto a quello che va per la maggiore, pero’ (i) costoro (i critici) si sono ben guardati dal rendere pubblico il loro pensiero (ii) quello che si vede sui media è un generale osanna per la rete. Quindi, dal punto di vista politico – quello che si vedrebbe dallo spazio se i pensieri pubblici avessero un colore visibile –, si vede un unico colore.

 

In tale orientamento vi sono, del resto, parecchi punti di verità: anche Amartya Sen, nel suo saggio sulle diseguaglianze, osserva che è l’informazione l’elemento principe dell’emancipazione e della conquista della dignità di chi vive emarginato, per circostanze fortuite, per vicissitudini storiche e sociali del suo Paese, o per mancanza di autostima e di coraggio.

 

Possiamo anche pensare che, una volta libere di accedere a tutte le fonti di informazione, le persone maggiormente dotate di iniziativa, in qualsiasi ambiente sociale (che cosa definisce un ambiente sociale se non la sommatoria delle informazioni che vi circolano?) lavoreranno per dotarsi delle tecnologie, delle funzioni e degli strumenti metodologici che avranno compreso essere loro mancanti, per l’automazione della produzione, per la logistica, per la costruzione e la gestione di infrastrutture e servizi, ecc… Il colore di intere zone del pianeta comincerà allora a mutare: dal grigio-marrone uniforme delle bidonville verso i pastelli delle case ben tenute, il verde forte dei parchi, i colori dei giardini, le sinfonie dei campi coltivati.

 

Lungi da me qualsiasi idea di automatismo, del tipo informazione = emancipazione. Purtroppo non è così semplice. Se, per una volta, e limitatamente forse a questa fase di ottimismo retaiolo, l’orientamento della direzione politica mondiale fosse coerente, e non opposto, agli interessi degli emarginati, non significa che tutto sia automaticamente risolto. Il fatto che l’interesse degli emarginati non sia rappresentato da quei signori non è così chiaro, per gli emarginati stessi. E se lo sapessero non è detto che sarebbero in grado di sviluppare un pensiero critico. Ed, ancora, dal pensiero all’azione il passo è ancora lungo… Ma uno strumento d’informazione come la rete, ammesso che l’informazione immessavi continui ad essere incontrollabile, può andare in quella direzione (sviluppo di un pensiero critico, ecc…). Nessuna burocrazia ha mai avuto, nella storia, il controllo completo che desidererebbe, e spesso gli spiragli che ha dovuto aprire per non perdere il consenso, si sono trasformati in voragini che l’hanno poi travolta. Non dobbiamo correre il rischio di non vedere gli spiragli, quando si aprono, per timore di apparire meno critici nei confronti della burocrazia stessa.

 

Ma, dati alla rete i suoi meriti, e preso atto che persino la burocrazia al potere non riesce a sminuirli, rimangono i demeriti, non già della rete, ma di coloro che ne sono completamente plagiati, e mancano nell’analizzare i problemi per quello che sono. Come faranno le società preindustriali (ed anche quella elettronica) ad acquisire le tecnologie necessarie se, nel frattempo, queste si saranno irreparabilmente deteriorate?

 

L’unanimismo planetario intorno alla rete costituisce un episodio molto particolare nella storia della filosofia. Curiosamente tutte le correnti di pensiero, anche le più antitetiche, appaiono accomunate nel giudizio positivo sull’espandersi della rete, seppure per motivi diversi:

 

a)    I fautori dell’economia vedono accendersi l’entusiasmo degli investitori intorno all’e-commerce.

 

b)    I grandi monopolisti intravedono molte possibilità di controllo degli orientamenti dei consumatori.

 

c)    Gli strateghi politico-militari vedono molte possibilità di controllare le comunicazioni delle persone senza che neppure queste si accorgano che le buste ricevute sono state aperte ed ispezionate.

 

d)    I verdi apprezzano una tecnologia che, a loro modo di vedere, dovrebbe far diminuire gli spostamenti ed i viaggi delle persone (nota fonte di inquinamento e spreco di risorse).

 

e)    E così via: non v’è corrente economica, politica o filosofica che non veda nella rete enormi vantaggi.

 

I tecnici, i ricercatori, l’avanguardia tecnologica della società, coloro che quotidianamente lavorano e fanno vivere la società elettronica, sono dei grandi utilizzatori della rete, e sono anche coloro che l’hanno costruita e la fanno vivere. È in tale contesto che potrebbe nascere un pensiero critico, che però sinora non si è manifestato.

 

Le sole voci apparentemente discordi si devono alla debole resistenza di chi resiste alle novità per pura pigrizia mentale o per snobismo. Ci sono infatti molti che asseriscono di “odiare il computer”. Ma la loro affermazione suona patetica, quanto quella di coloro che, 40 o 50 anni fa, dichiaravano di odiare il telefono o l’automobile.

 

Persino la critica, ferocemente antitecnologica ed antiscientifica, di coloro (e purtroppo non sono pochi) che vedono nella tecnologia il responsabile di tutti i mali del mondo moderno, curiosamente risparmia la rete.

 

Ovviamente non annovero, tra i pensieri critici, la consueta lagnanza che se la prende per partito preso con la modernità: in questo caso tale giornalismo da quattro soldi si chiede angosciato se l’Internet possa favorire fenomeni criminali, la pedofilia, l’evasione fiscale, l’estremismo violento, il razzismo, il riciclo di denaro sporco, ecc… Prima dell’internet questi mestieranti se la sono presa con altri frutti del demonio, come il telefono, il fax, il computer. Probabilmente c’è chi sogna una rete “ripulita” dal crimine, ma allora perché non il telefono? E perché non la società? Ma l’entusiasmo per l’economia in ripresa grazie all’e-commerce ha negli ultimi mesi completamente sommerso persino tali voci.

 

La tecnologia informatica si sviluppa, quindi, ed avanza alla cieca, priva di qualsiasi critica, interna o esterna, capace di discuterne consapevolmente gli indirizzi strategici e gli obiettivi più a lungo termine.

 

Che tutte le tecnologie si servano, poco o tanto, dell’elettronica e dell’informatica è ormai scontato, e nessuno lo mette in dubbio. In qualche misura quindi tutto lo sviluppo tecnologico dipende, poco o tanto, dall’indirizzo dell’informatica, e dall’approccio culturale e filosofico di coloro che sviluppano quest’ultima tecnologia.

 

Ora, l’informatica orientata alla telecomunicazione, sempre più si allontana dal concetto di determinismo. Essa sembra non averne bisogno, e sempre più ne snobba l’esigenza fondamentale.

 

Si noti che tutta la tecnologia dell’automazione, sviluppatasi negli anni ‘80, si basava su macchine molto meno potenti di quelle odierne, con disponibilità di memoria ram e memoria di massa molto inferiore rispetto a quelle odierne.

 

Tanto per avere un’idea di quanto sopra, confrontiamo le caratteristiche essenziali di un mini-calcolatore degli anni ’80 (normalmente usato per il contgrollo di processo), con un personal computer degli anni 2000, normalmente usato in applicazioni di telecomunicazione e di automazione.

 

 

 

A) Mini dell’era dell’automazione

Capacità di memoria ram:            Unità di Megabyte

Capacità di memoria di massa (Hard Disk): Centinaia di Megabyte

Velocità di CPU: 8 – 10 MHz

Velocità di trasmissione dati (linee seriali, reti locali, bus di campo): Decine di Kbit per secondo

 

 

B) Personal dell’era della rete

Capacità di memoria ram:            Centinaia di Megabyte

Capacità di memoria di massa (Hard Disk): Decine (centinaia, per i server di rete) di Gigabyte

Velocità di CPU: > 500 Mhz

Velocità di trasmissione dati (linee seriali, reti locali, bus di campo): Centinaia di Megabit per secondo

 

 

 

Mini dell’era dell’automazione

Personal dell’era della rete

Capacità di memoria ram

Unità di Megabyte

Centinaia di Megabyte

Capacità di memoria di massa (Hard Disk)

Centinaia di Megabyte

Decine (centinaia, per i server di rete) di Gigabyte

Velocità di CPU

8 – 10 MHz

> 500 Mhz

Velocità di trasmissione dati (linee seriali, reti locali, bus di campo)

Decine di Kbit per secondo

Centinaia di Megabit per secondo

Ad esempio, il notebook ACER che sto usando in questo momento ha:

 

-        64 Mbyte di memoria ram (facilmente espandibili fino a 164 Mbyte)

-        6 Gbyte di disco

-        velocità di cpu 500 Mhz

 

Vi sono macchine intel (tipo tower), di costo non superiore, come ordine di grandezza (ben sotto i 10 Mlit, tanto per dare un riferimento), che hanno capacità come quelle elencate. I mini-computer degli anni ’80, schizzati nella tabella, avevano un costo 10 volte maggiore: per un DEC MicroVax si partiva dagli 80 Mlit in su, a seconda della configurazione. Tra parentesi: è proprio questo gap, ed il fatto che DEC non abbia saputo (o voluto, fidando erroneamente nel mercato industriale) creare un proprio personal, che ha decretato la sconfitta della DEC. Il mercato industriale stesso ha presto optato per i personal, anche se molto meno affidabili.

 

DEC ha quindi commesso un duplice errore: (i) sottovalutare il mercato del largo consumo della nascente era elettronica, (ii) sopravalutare la serietà professionale del mercato industriale. Purtroppo, la realtà funziona esattamente al contrario:

 

a)    Nel mercato industriale vince sempre l’Ufficio Acquisti, che decide di spendere 10 anziché 100, per ottenere in apparenza lo stesso risultato. Ammesso che un ragioniere dell’Amministrazione arrivi a capire il valore dell’affidabilità, lo scarterà come un problema non suo: se ci saranno problemi si verificheranno dopo aver fatturato, e saranno problemi dei tecnici.

 

b)    Nel mercato del consumo di massa si spende con più leggerezza, ma l’affidabilità in questo mercato è un bene senza valore. Al massimo è valutato come un requisito di facciata, uno specchietto per le allodole, che nessuno si aspetta veramente.

 

In tale contesto non poteva che vincere l’accoppiata Compaq/MS, con il suo approccio “leggero”, minimalista e stocastico.

 

Per esperienza diretta (lavoro nell’informatica dal 1971 e nel campo dell’automazione dall’inizio degli anni ’80), so che con le macchine degli anni ’80, la cui potenza fa ridere oggi qualsiasi ragazzino appassionato di computer, si potevano realizzare sistemi ragionevolmente vicini al concetto di determinismo. Venivano controllate, in real time, decine di migliaia di grandezze analogiche e di segnali digitali, con frequenza di campionamento anche molto elevate.

 

Oggi è quasi impossibile, nonostante l’hardware potentissimo messo a disposizione dai costruttori, anche per sistemisti esperti, soddisfare lo stesso requisito di determinismo. Il risultato è in apparenza lo stesso. Ciò che non è lo stesso è qualcosa di essenziale (per un sistema di automazione) che si può apprezzare solo nel tempo: ciò che in inglese si definisce availability, cioè la disponibilità del sistema nel tempo, la sicurezza che il sistema farà sempre ciò che l’utente si aspetta. Poiché manca l’affidabilità, il risultato è diverso, e notevolmente inferiore, perché l’affidabilità, per un sistema di automazione, è un requisito di classe superiore rispetto alla presentazione grafica accattivante ed alla possibilità del sistema di comunicare con l’esterno.

 

Per quanto riguarda le cause di tale paradosso, sostengo che si tratta di cause culturali, e non tecnologiche. O meglio, due sono le cause principali di questo vero e proprio degrado culturale:

 

a)    Il mercato, che ha decretato la vittoria dell’entertainment e della telecomunicazione sull’automazione. Il fondamentalismo del mercato ha poi fatto il resto, relegando la cultura dei sistemi deterministici in un ghetto dove non è più manutenuta e quindi non può più evolversi.

 

b)    La stessa evoluzione dell’hardware, che ha messo a disposizione potenze di calcolo e dimensioni di memoria enormi rispetto alle esigenze, rendendo apparentemente obsolete le preoccupazioni riguardanti le capacità dell’hardware.

 

Per quanto i danni dell’approccio stocastico al controllo di processo siano sotto gli occhi di tutti (perdite di vite umane e spreco di risorse, per dire solo i principali), non vi è una cultura deterministica della progettazione di sistemi.

 

L’elettronica, dal punto di vista filosofico, tende a far piazza pulita dell’illusione di determinismo indotta precedentemente dalla meccanica. Contribuendo alla fine di un equivoco, e tale evento va riconosciuto come positivo.

 

E’ con l’avvento dell’automazione che nasce il concetto del controllo continuo di processo (curiosamente anche Soros, un economista, lontano le mille miglia da concetti tecnologici, si rifa’ a questo concetto), cioè raggiungere e mantenere un setpoint pre-definito (una temperatura, una portata di un fluido, una pressione) compensando i disturbi e le oscillazioni del processo controllato mediante un dispositivo hw+sw capace di integrare (i) il setpoint desiderato (ii) il valore reale della grandezza controllata rilevato in continuo dal campo (iii) l’azione di un device regolante (in genere una valvola ad apertura percentuale, oppure una pompa, un motore, o altro).

 

Chiunque abbia fatto del controllo di processo oggi sa che il determinismo, per quanto auspicabile, non è semplice né obbligato, come riteneva l’ingegneria meccanica dell’era industriale.

 

Non ritengo neppure che la soluzione stia nel disegnare, almeno per l’obiettivo dell’automazione, sistemi sempre più complessi, una sorta di calcolatore euristico capace di imparare dall’esperienza. Tale macchina sarebbe per definizione aperta, addirittura capace di cercarsi le informazioni, e questo contraddice di per sé anche il più banale requisito deterministico.

 

Siamo invece noi umani che dovremmo acquisire migliori capacità euristiche. Ad esempio differenziare fortemente gli sforzi, per obiettivi diversi: una macchina per le telecomunicazioni, ad esempio, potrebbe anche avere qualche requisito euristico.

 

Per la telecomunicazione non è tecnologicamente sbagliata, tutto sommato, la strada intrapresa dalla Microsoft: sistemi molto aperti, tollerando un alto livello di fallibilità, capaci di rabberciare un protocollo d’intesa sempre e comunque, anche quando questo conduce al crash. Magari si è fatto a tempo a trasferire le informazioni prima del crash, e magari si trasferiranno le informazioni dopo una riconnessione, dopo aver chiuso qualche applicazione.

 

Con la rete l’informatica è entrata nel campo della sperimentazione continua, dove gli sperimentatori in maggioranza non tengono traccia dei risultati degli esperimenti, però a lungo andare si sedimentano soluzioni e strumenti, mediante l’uso “corale” della rete stessa. La rete sarebbe quindi un sistema capace di evolvere? Staremo a vedere (personalmente non sono molto interessato a prendere parte a questo processo).

 

Per l’obiettivo dell’automazione la visione va esattamente rovesciata. Cio’ che per la rete è un bene per l’automazione è la morte. Nell’automazione il sistema deve fare esattamente ciò che intende il progettista. È in questo caso che il Software Life Cycle del PSS05 ESA dimostra la sua utilità: ogni step procedurale di test del sistema (ai diversi livelli di integrazione) deve tracciarsi su un livello dei requisiti (User requirements, Software Req.s, Architectural Design, Detailed Design). Peccato che queste procedure siano spesso applicate in modo bovino e “disumano”, e quindi si hanno i disastri dell’Ariane 5 – Cluster, e delle varie sonde marziane (come ho scritto in un recente editoriale).

 

Tutta la progettazione non finalizzata alle telecomunicazioni subisce l’enorme pressione, una vera egemonia culturale, dell’orientamento dell’informatica alla rete (per i programmatori più giovani informatica è addirittura sinonimo di rete).

 

L’orientamento dell’informatica alla comunicazione ha decretato l’obsolescenza del concetto di sistema chiuso. Un sistema costantemente aperto è, per definizione, esposto a qualsiasi interferenza e disturbo proveniente dall’esterno, quindi assolutamente non deterministico.

 

Mentre i sistemi operativi dell’era dell’automazione rifiutavano di eseguire un’applicazione non configurata nel contesto determinato dal progettista, i sistemi operativi dell’era internettiana eseguono qualsiasi applicazione, purchè riescano a negoziare un protocollo d’intesa anche sommario. Ne risulta spesso un decadimento delle performance della macchina “ospite”.

 

Viene utilizzata la grafica sempre e comunque, anche quando non è necessaria, e la grafica assorbe un’enorme quantità di risorse del sistema.

 

Si indulge in una sorta di illusione: che il software delle ultime generazioni sia in grado di badare a se stesso e di tenere in ordine la casa. Ciò è assolutamente falso, e mai illusione fu più pericolosa. Prova ne sia la fortuna delle varie utilità di deframmentazione, di analisi dello stato dei dischi, di analisi delle performance di CPU.

 

In passato, quando doveva fare i conti con le capacità limitate della macchina, il progettista (in particolar modo di sistemi real time) era costretto a:

 

a)    far stare gli algoritmi in poco spazio di memoria

 

b)    rendere il codice il più possibile snello, per consentire alle applicazioni real-time di girare senza sforare il ciclo macchina

 

c)    limitare il più possibile le dimensioni dei file di log, in modo da non riempire velocemente i dischi del sistema

 

d)    calcolare accuratamente il flusso di informazioni in rete, in base alle capacità della rete locale, in modo da non avere troppi conflitti (con conseguente perdita di dati, e quindi di capacità di controllo del processo)

 

Con il crescere della potenza dell’hardware, si è progressivamente operato un mutamento radicale di approccio, da parte del progettista. Processori a 64 bit, pentium e quant’altro, centinaia di Mbyte di memoria, dischi da centinaia di Gigabyte, danno al progettista spazio di memoria e potenza molto superiori a quanta ne serva per le applicazioni da sviluppare.

 

I concetti, duramente appresi in precedenza, dell’economia di risorse, sembrano non valere più nulla. Da una gestione di risorse scarse (cui la nostra storia, non solo tecnologica, ci ha dolorosamente prepaparati), siamo passati (almeno nella tecnologia elettronica) alla gestione dell’abbondanza, per la quale non siamo filosoficamente preparati.

 

In sé, il concetto non è difficile: per quanto i possessori di una casa piccola possano aver spesso pensato quanto starebbero meglio in una casa grande, la casa grande non è, di per sé, garanzia di ordine ed efficienza. Si può gestire male tanto uno spazio grande quanto uno piccolo. Anzi: più è grande lo spazio che abbiamo a disposizione, più spaventoso (e quindi permanente) sarà il disordine, se non siamo capaci di amministrare saggiamente il nostro spazio.

 

Qualcosa di analogo succede ai sistemi. Avendo a disposizione potenze enormi e spazi virtualmente illimitati, il progettista si cura poco di calcolare quanto e come la sua applicazione utilizzerà spazio e potenza di calcolo. Ne risulta un accatastamento abominevole di programmi e basi dati, fidando che l’indicizzazione ed i legami tra frammenti (grazie all’enorme potenza di calcolo) risolvano tutto. Ma così non è, e le applicazioni falliscono spesso e volentieri, le prestazioni della macchina diminuiscono con l’andar del tempo, e viene il momento in cui siamo costretti a reinstallare il sistema operativo, perché una macchina di potenza smisurata è ridotta a trascinarsi penosamente.

 

Questa generalizzazione si basa, come è facile intuire, su esperienza Windows, anche perché non esiste praticamente altro.

 

Per esemplificare, sino a qualche anno fa, chi aspirava a realizzare un sistema real time deterministico, utilizzava due tecnologie che, prima dell’esplosione delle telecomunicazioni, venivano passabilmente aggiornate:

-        Vax / VMS (Digital Equipment)

-        Hewlett Packard / Unix

 

DEC ha fatto a tempo a realizzare Alpha (successore a 64 bit del Vax) prima di essere acquistata da Compaq (!). Il sistema operativo VMS è quindi stato gettato alle ortiche per adottare Windows NT. NT su DEC Alpha ha le stesse performance di NT su Intel: affidabilità zero. Se ci si azzarda a toccare l’argomento con tecnici ex-DEC (oggi Compaq (!)) si corrono seri rischi.

 

Basta fare un giro nei laboratori Alenia, dove si allestiscono test equipment per satelliti o ground station: ovunque c’era Vax/VMS si trova oggi Alpha o Intel con NT. Se si affronta il problema affidabilità si avranno risposte evasive: i tecnici più coscienziosi diranno che è una vergogna, i più brillanti e rampanti diranno che stanno sviluppando meravigliosi sistemi di progettazione in rete.

 

Se possedeste una Ferrari, concepireste che si riduca ad arrancare come un carrettino spinto faticosamente a mano? No, nella tecnologia meccanica ciò sarebbe intollerabile, e dareste un giudizio molto negativo di un tecnico che lasciasse la vostra auto ridursi in tale stato. Nella tecnologia informatica, invece, non solo tolleriamo cose di una gravità inaudita, ma paghiamo somme spropositate per sistemi assolutamente inaffidabili.

 

Potrebbe l’internet, se intesa nel verso giusto, anche lavorare come una palestra dello spirito, in cui l’uomo si addestri a gestire l’abbondanza? O almeno a non esserne spaventato, a non avere reazioni di garrula superficialità, a cominciare a pensare che un patrimonio sconfinato non è meno difficile da gestire di uno esiguo e che, infine, più che la consistenza del patrimonio che abbiamo a disposizione, conta la nostra attrezzatura culturale, ideologica, filosofica, con cui ci apprestiamo a gestirlo? (Quanto sopra senza dimenticare che, ovviamente, al di sotto di una consistenza minima di patrimonio, anche l’attrezzatura migliore non può fare comunque granchè).

 

I concetti chiave sono, in fondo, semplici: ad esempio, non disfarsi degli strumenti che usavamo per calcolare l’utilizzo delle risorse scarse. Possiamo però sbarazzarci dell’angoscia, infatti sappiamo che, se non centreremo pienamente l’obiettivo… abbiamo ancora delle altre risorse da utilizzare J! E scusate se è poco: è come volteggiare su un trapezio con la rete invece che senza! Il progettista odierno invece sta sdraiato nella rete (intesa come la rete del trapezista), al punto da non vedere e non padroneggiare l’insieme del suo lavoro, tanto il suo punto di osservazione è basso.

 

Insomma il vero signore non è colui che, avendo tanto, spreca tanto e si culla in un ozio garrulo e beota, bensì colui che sa amministrare il proprio patrimonio con saggezza. Che in soldoni significa: utilizzo quanto mi serve (o poco di più) per i miei obiettivi, mantengo pulito ed in ordine il resto, ed impedisco che si deteriori.

 

Ma la cultura progettuale odierna non segue affatto il semplice principio appena esposto. Avendo a disposizione enormi potenze ed enorme spazio, si preferisce dimenticare qualsiasi concetto di determinismo, confidando nell’improbabile funzionamento di una macchina completamente stocastica, poiche’ completamente aperta, anche quando il tipo di applicazione richiederebbe il contrario. O, se volete, di una macchina che non siamo più in grado di chiudere, perché gli unici sistemi operativi che abbiamo a disposizione sono fatti per gestire macchine aperte: nel settore dell’entertainment e delle telecomunicazioni l’apertura dei sistemi è d'altronde un requisito fondamentale, ed il cerchio si chiude.

 

Il progettista di sistemi real time degli anni ’80 poteva, mediante calcoli ragionevolmente complessi, ma non assolutamente scoraggianti, ritrovare gli indirizzi assoluti del proprio codice (disassemblato) in memoria ram, verificare come il sistema operativo mappava le proprie tabelle in memoria, vedere quanto spazio libero rimaneva. Il Fortran rientrante (papà dell’odierno C++), permetteva di creare applicazioni capaci di generare un numero previsto di istanze contemporanee di processi concorrenti in tempo reale. Il progettista aveva cura di procurare abbastanza memoria ram rilocabile, in modo che tutte le istanze concorrenti avessero sufficiente spazio di memoria per girare senza andare in blocco. Se l’utente, o una situazione contingente del processo controllato, richiedevano che l’applicazione utilizzasse più memoria di quella prevista, l’applicazione dichiarava onestamente lo stato di OVERFLOW, il resto delle istanze continuava a girare in sicurezza, poiché l’applicazione evitava di lanciare l’istanza di troppo. Le dimensioni ed i tempi operativi del sistema erano deterministicamente imposti dal progettista. Finito il suo compito, ogni istanza rientrante rilasciava la memoria occupata. L’uso di file di disco come suppletivo di memoria mancante era a stretta discrezione del progettista, ed anche questo dimensionabile deterministicamente. In questo modo il petrolio non allagava improvvisamente i piazzali, tonnellate di materia prima non venivano sprecate, i treni non deragliavano, il sistema di guida degli aerei non impazziva improvvisamente, gli astronauti avevano qualche probabilità di sopravvivere nello spazio.

 

Nei sistemi odierni, specialmente se si utilizza Micorsoft NT (l’unico sistema operativo dotato di grandi numeri, e quindi capace di vivere ed evolversi), il progettista non ha possibilità di determinare dimensionalmente e temporalmente i propri processi real-time.

 

a)    I processi real-time vengono lanciati, dallo schedulatore del sistema operativo, in concorrenza con tutte le altre applicazioni, utili ed inutili rispetto all’applicazione real time stessa.

 

b)    In qualsiasi momento una qualsiasi DLL (Dynamic Linkable Library), magari scaricata dall’internet per un’esigenza assolutamente secondaria, può negoziare con il sistema operativo uno spazio di memoria ram e piazzarci comodamente la sua inutile base dati.

 

c)    Per un caso fortuito proprio grazie a quanto sopra l’applicazione real time comincia ad entrare in un leggero stato di affanno. Invece di girare velocemente in memoria ram, è costretta a cominciare a swappare (usare file temporanei di disco, più lenti della memoria ram, al posto della ram mancante).

 

d)    Proprio in quel periodo, si verifica una situazione del processo controllato che richiederebbe il miglior tempo di risposta da parte del processo controllore. Quest’ultimo però non è al momento capace delle sue performance migliori. Si verifica quindi un piccolo o grande disastro.

 

Quanto descritto sopra non è che uno dei casi possibili, neppure tanto estremi. Ciò che accade normalmente è che lo spazio di memoria ram, terreno di contesa tra applicazioni concorrenti e non determinate a priori dal progettista, si “incasina” fino a che sul video cominciano ad apparire messaggi incongruenti, e quella bella illusione di ordine, iconine, finestre e tabelline col loro bel bordino in rilievo, lascia trasparire un po’ del caos sottostante.

 

Si potrebbe obiettare che il problema sta nel cliente, che prescrive Windows come sistema operativo in ogni caso. Ma che scelta ha, in realtà?

 

Il mercato, se vogliamo discutere dell’uso che vogliamo fare noi di questa parola, almeno per capirci, è un’astrazione che si concretizza nelle borse, nei prezzi, nelle transazioni commerciali. Dati un bene A ed un bene B, fatti 100 gli acquirenti, se 95 comprano A il bene B, pur rispondendo all’esigenza dei 2 che l’hanno comprato (3 non comprano nulla) presto non avrà più investimenti né produzione. Se il bene A è una droga che permette a tutti di vivere in un continuo orgasmo, ed il bene B è un mezzo (poniamo) per rendere l’aria respirabile, 95 moriranno felici, 2 moriranno incazzati, 3 moriranno e basta. Se vogliamo considerare che tutti hanno avuto quanto si meritavano per la loro stupidità, OK, lasciamo pure che il mercato ci organizzi la vita (e la morte): faremo parte del 2% che morirà incazzato. Personalmente insisto: il mercato va corretto con la politica, è l’unico modo per far sì che la ragionevolezza di quei 2 possa avere qualche influenza sul resto. Se poi, di quei 2, uno è un profittatore che fa solo demagogia, posso correre il rischio: è sempre meglio che tirare le cuoia senza aver fatto nulla.

 

Se indagate un po’, o se vi è già successo qualche incidente (dipende solo da quanto usate i vostri sistemi) vi accorgerete che i sistemi operativi e le macchine più recenti hanno tutte funzioni che permettono di recuperare, se siete fortunati, i documenti eventualmente rimasti bloccati durante un collasso del sistema. Basta spegnere la macchina: alla ripartenza il sistema operativo rimette in sommario ordine i file di sistema, e via che si riparte, recuperando i documenti bloccati dai file temporanei.

 

Documenti, per l’appunto. I progettisti del sistema-operativo-per-eccellenza pensano sempre che abbiate per le mani dei documenti. Secondo loro siete dei giornalisti, degli operatori di e-commerce, degli agenti di borsa, dei voyeur che scaricano gigabyte di fotografie di donnine svestite. Tutte persone che, tutt’al più, perdono qualche ora di lavoro o del loro divertimento. Ma non passa loro per la testa che forse siete progettisti di sistemi real time, e che dall’accuratezza del vostro lavoro dipende spesso la vita umana o, anche solo, il buon utilizzo o lo spreco di ingenti risorse.

 

Memoria ce n’è in abbondanza, i dischi fissi hanno dimensioni enormi. Quando sono troppo pieni basta cancellare un po’ di zavorra. Che bisogno avrebbero, le applicazioni, di rilasciare la memoria, o di andare a ripulire il disco della loro spazzatura: meglio lasciare tutto lì dove sta, nell’eventualità che il bambinone utente decida di giocare ancora. Non si vuole certo provocargli un moto di stizza annoiata, che lo indirizzi magari ad altri passatempi. Chiari indizi, se ce ne fosse bisogno, di una cultura sistemistica orientata all’entertainement, e comunque alla deresponsabilizzazione dell’utente. La sequenza di utilizzo dei sistemi risulta quindi la seguente:

 

1.    Uso passabile del sistema a risorse fresche: disco non frammentato, poche applicazioni aggiunte o scaricate dalla rete.

 

2.    Uso sopportabilmente degradato (in seguito all’installazione superficiale di applicazioni varie ed all’inevitabile frammentazione del disco fisso).

 

3.    Uso del sistema impossibile: macchina insopportabilemente lenta, crash continui, blocchi ripetuti di varie applicazioni.

 

Al tempo 3 (posto che non sia intervenuto già al tempo 2, deframmentando il disco e spazzando via il ciarpame inutile) l’utente esperto riformatta il disco, reinstalla il sistema operativo, ed ha la macchina di nuovo allo stato 1 per un po’. Il meno esperto si rivolge al tecnico, e questi lo convince che è ora di comprare una macchina nuova.

 

Ancora una volta ci siamo lasciati andare a pensare ad un utente casalingo o, al massimo, di sistemi da laboratorio. Ancora una volta ci è sfuggita la figura dell’utente di sistemi di automazione e controllo di processo. Eppure da tali sistemi dipende ormai tutta la nostra vita, e la possibilità, per la nostra specie, di accedere allo spazio.

 

 

 

2.        LA RICERCA SCIENTIFICA SOTTO ACCUSA

 

La concentrazione più consistente di capitali sembra essere, nel 2000 A.D., a sostegno della ricerca biotecnologica. Anche in questo caso il mercato è l’ispiratore di tale scelta. Le biotecnologie appaiono oggi la più promettente fonte di ritorni d’investimento, sia nel settore agricolo-alimentare, che nel settore della medicina.

 

Mentre la scelta della rete, in campo tecnologico, è pressochè incontrastata dal punto di vista politico, la scelta delle biotecnologie è contrastatissima, dal movimento ecologista, che ha buon gioco -- facendo leva sui timori, spesso non ingiustificati, della gente – nell’additare la ricerca biotecnologica come il più subdolo disegno di manipolazione di massa da parte delle potenti lobby che conducono la ricerca stessa e ne commercializzano le applicazioni.

 

Aggiungendosi alle molte suggestioni irrazionaliste che animano il cambio di millennio, il primato della ricerca biotecnolgica contribuisce al perpetuarsi di uno scenario quanto mai inquietante:

 

a)    Si sviluppa uno sterile dibattito pro e contro la scienza, in cui gli avvocati della scienza sono costretti a difenderla dall’accusa di essere la causa di tutti i mali del mondo moderno.

 

b)    A molti gruppi di ricerca viene meno il sostegno, quando non devono fronteggiare l’aperta  ostilità, dell’opinione pubblica.

 

c)    Si fa strada un concetto falsamente democraticista, secondo il quale la società nel suo complesso deve decidere quali ricerche portare avanti nella più totale ignoranza delle discipline discusse (chi favorisce questa impostazione non si preoccupa di favorire anche l’informazione e l’educazione sulle materie scientifiche di cui discute, e spesso ne ha egli stesso una minima infarinatura).

 

d)    Non si sviluppa una discussione politica informata e consapevole, dall’interno della ricerca, sugli indirizzi e sulle priorità della ricerca scientifica. Solo una tale discussione, portando poi le sue posizioni discusse ed esemplificate all’esterno, nella società, potrebbe consentire decisioni realmente democratiche, poiché informate e consapevoli, in merito alla politica della ricerca scientifica. Dato che i ricercatori fanno in genere il loro mestiere, e da soli non pensano alla necessità di ricoprire un ruolo politico, sarebbe necessario, per innescare simili processi, un qualche tipo di “enzima” (un giornalismo più informato ed intrigante? Questo sarebbe, in realtà, pane per gli umanisti astronautici, se avessero un po’ di risorse da spendere…)

 

e)    In mancanza di quanto esposto al punto precedente, ed a causa delle storture esposte nei primi tre punti, la priorità della ricerca viene ancora decisa unicamente da poche lobby di potere chiuse ed inaccessibili. Scienziati, ricercatori, università, finiscono quindi per essere ancora personale alle dipendenze di tali lobby, anziché far parte integrante, magari anche problematica, della società.

 

La ricerca spaziale sembra attiva e prospera, ma in realtà:

 

a)    è perlopiù incanalata su binari sterili;

 

b)    non apre spazi ad investitori privati;

 

c)    non sembra avere tra i suoi obiettivi dichiarati l’abitazione dell’uomo nello spazio né l’industrializzazione dello spazio;

 

d)    non sembra avere un piano strategico né priorità precise;

 

e)    è ancora totalmente appannaggio delle agenzie spaziali governative, che la gestiscono con criteri unicamente finalizzati al mantenimento delle agenzie stesse come casta burocratica.

 

Le condizioni tratteggiate fanno sì che la ricerca spaziale proceda in modo del tutto strampalato ed inconcludente:

 

a)    Si trascura l’ambiente extraterrestre più favorevole, sul quale l’uomo potrebbe vivere e lavorare già da decenni: la Luna.

 

b)    Si spendono cifre enormi per costruire la ISS utilizzando ancora un mezzo costosissimo, come lo Shuttle NASA, quando veicoli riutilizzabili e tecnologie meno costose avrebbero potuto essere sperimentate e prodotte già da tempo, dando modo ai privati di entrare nell’impresa spaziale.

 

c)    Missioni automatizzate a carattere esplorativo vengono lanciate per ogni dove, senza che le conoscenze acquisite vadano ad arricchire il benchè minimo piano di colonizzazione.

 

d)    Le ricerche più urgenti, per un vero piano di colonizzazione spaziale (ad es. come produrre ossigeno, come far vivere ed automantenersi ecosistemi artificiali in ambienti chiusi a gravità ridotta, tecnologie vegetali per produzione di acqua ed ossigeno), sono del tutto trascurate.

 

e)    L’amministrazione e manutenzione dello spazio circumterrestre è lontana da qualsiasi strategia delle agenzie; centinaia di migliaia di frammenti della tecnologia umana orbitano intorno al pianeta. Materiali che potrebbero in gran parte essere riutilizzati, se si entrasse nell’ottica di presidiare attivamente l’interfaccia tra la Terra ed il Cosmo.

 

f)    Molti altri temi di ricerca (che pure popolano i paper dei congressi IAF IAA ogni anno) sono di fatto disattese, ad es. : biologia umana e medicina nello spazio, produzioni industriali sperimentali a bassa gravità.

 

 

 

3.        Conclusioni

 

Gli umanisti astronautici credono di avere appreso, fin dai primi voli orbitali, ascoltando il racconto di coloro che si sono spinti lassù (ed anche oltre, fino alla Luna), e trovando molto facile ed immediato immedesimarsi nelle sensazioni descritte dagli astronauti, un punto di visuale diverso e più elevato.

 

Noi abbiamo molta facilità nell’immaginare di osservare il nostro pianeta dall’orbita. Da lì, osservando l’umanità ed i suoi orientamenti con una risoluzione molto meno di dettaglio, vediamo che:

 

a)    Sia in campo tecnologico che in campo scientifico la ricerca si concentra su aspetti, per così dire, interni, al nostro mondo.

 

b)    Per sua natura la ricerca si muove su qualche frontiera, ma le frontiere che vanno per la maggiore, oggi, non sono le frontiere ai bordi esterni del nostro mondo, bensì frontiere interne al nostro mondo.

 

c)    Seduto su un granello di sabbia che rotea nell’Universo (di cui forse  mai riusciremo a percepire il limite), l’uomo non trova di meglio da fare che guardare il proprio ombelico.

 

d)    Pur giovandosi di un enorme patrimonio di conoscenza, e di un patrimonio umano senza precedenti (più di sei miliardi di persone), l’uomo non ha ancora trovato l’ispirazione per rimettere in discussione dalle fondamenta la propria filosofia. Tale ritardo potrebbe costargli carissimo.

 

L’indirizzo della generalizzazione planetaria della comunicazione non è in sé sbagliato. Tale indirizzo diventa pericoloso se concepito come totalizzante, unico ed in alternativa ad altre opzioni essenziali.

 

Non avendo in sé l’esigenza dell’affidabilità e della sicurezza dei sistemi, l’indirizzo comunicativo della tecnologia rischia di sopprimere la cultura dei sistemi deterministici, in particolare di controllo di processo in real time.

 

Nasce inoltre l’esigenza di illustrare con maggiore concretezza cosa significhi questa "cultura deterministica" al di là del modello di controller automatico in senso stretto. E, volendo spingersi oltre, di verificare l’applicabilità dei seguenti principi filosofici: stocasticismo, determinismo, eurismo.

 

Questo non è un compito facile, né risolvibile in quattro e quattr’otto! Questo è però un tema di ricerca concreto che possiamo tentare di svolgere. TDF è già in parte indirizzata su questa ricerca, e da qualche tempo cerco di selezionare contributi in tale direzione. Al momento posso indicare, in proposito:

 

-        Il progetto “Affidabilità e sicurezza dei sistemi e del software”, giunto al capitolo 3. Mentre i primi 3 capitoli sono stati tracciati da Vittorio De Val, ed integrati dal sottoscritto, il capitolo 4 riguarderà il Project Management affidabilistico, e mi sono impegnato a fare la prima stesura entro l’autunno.

 

-        Ho trovato riferimenti alla cultura del controllo continuo di processo – ovvero della correzione continua degli errori -- in Soros (Diana sta preparando la recensione ed un riassunto del libro di Soros), che lui ammette di mutuare dalla cultura dell’automazione. Trovo molto interessante il concetto di Soros perché non solo ammette l’errore, ma ne fa una componente normale, da utilizzare, non solo come esperienza, ma come dato rilevato dal campo, indispensabile per la conduzione di ogni attività umana.

 

-        Si potrebbe provare a confrontare il concetto di euristica con il concetto di approccio deterministico alla correzione continua degli errori?

 

Per il momento vorrei sintetizzare, un po’ brutalmente, come segue, la concezione filosofica deterministica applicata ai sistemi di interazione uomo-natura:

 

1)    La realtà naturale, ed anche di molte interazioni uomo-natura, è irrimediabilmente (e meravigliosamente) stocastica.

 

2)    Per i propri obiettivi di comunicazione e collaborazione l’uomo ha l’esigenza di sviluppare sistemi il più possibile aperti. Tali sistemi risulteranno ad essere, per forza di cose, stocastici. In questo la rete tenderà ad assomigliare ad un sistema naturale, dotato di una propria evoluzione e differenziazione basato su crescita, differenziazione, mortalità, nuova differenziazione di nodi ed agglomerati al suo interno. (Si vedano anche i concetti di K.A.Ehricke, del “metabolismo dell’informazione”)

 

3)    Per i propri obiettivi di sopravvivenza e sviluppo l’uomo ha l’esigenza di costruire sistemi di interazione uomo-natura il più possibili affidabili e predittibili, vale a dire deterministici. Di tali sistemi deve essere possibile, in percentuale tendente al 100%, predire gli esiti ed il comportamento.

 

4)    Per soddisfare ai requisiti dell’affidabilità e del determinismo, un sistema deve necessariamente essere un sistema chiuso, di cui siano rigidamente determinati i requisiti dal progettista, in primo luogo i requisiti di interfaccia con:

a)              il processo controllato, che continua, poiché naturale o comunque aperto agli influssi della circostante natura, ad essere stocastico

b)              e con l’operatore umano, anch’egli, per sua natura, stocastico.

 

5)    Possiamo quindi affermare che il sistema deterministico, date le condizioni a) e b) del punto precedente, viene ad essere un agente di sicurezza che si interpone tra due sistemi stocastici (uomo e natura).

 

6)    Requisiti di sicurezza possono essere definiti, in fase di progettazione, sia in favore dell’uomo che della stessa natura.

 

7)    Rigidamente definite a livello progettuale dovranno essere, in un sistema deterministico, anche le interfacce in rete locale chiusa, verso eventuali sistemi cooperanti.

 

8)    Sia i sistemi stocastici che quelli deterministici sono realizzabili unicamente per mezzo dell’elettronica e dell’informatica.

 

9)    Ogni confusione di indirizzi, requisiti, obiettivi, tra le due progettazioni, può portare solo a risultati negativi, soprattutto nel campo dei sistemi deterministici

 

10)       Ne consegue che l’informatica dovrà contemplare due scuole ben separate, e due indirizzi ben delineati, in cui si coltivino con attenzione i diversi scopi e finalità per cui sono nate:

a)       quello dell’apertura stocastica, per i sistemi di comunicazione,

b)       quello della chiusura deterministica, per i sistemi affidabilistici.

 

11)       Quanto sopra, per quanto riguarda l’informatica, che è la tecnologia dominante e fondamentale, nell’era del metabolismo dell’informazione.

 

12)       Con estrema cautela, una branca parallela dello studio potrebbe esplorare in quali altri casi sia applicabile la filosofia dei sistemi deterministici (ad esempio Soros applica il concetto del controllo di processo all’economia).

 

13)       Il concetto euristico dell’utilizzo dell’errore può essere applicato in ambedue le culture progettuali, con la seguente distinzione fondamentale:

 

a)       Nel caso dei sistemi stocastici si potrà tentare di trasferire concetti euristici a livello software

 

b)       Nel caso dei sistemi deterministici dovrà prevalere un orientamento molto più conservativo, limitando l’uso dell’euristica alla fase progettuale o, se vogliamo, inserendo algoritmi euristici all’interno di sistemi di sviluppo e di tool case (non sarebbe male un sistema di sviluppo intelligente, che ci aiutasse ad imparare dagli errori di progettazione commessi in precedenza…)

 

c)       Fatto salvo, ovviamente, per i sistemi real time, l’uso dell’errore che già viene fatto negli algoritmi di controllo continuo di processo. Nel caso del controllo di processo non si tratta, tuttavia, di un’applicazione euristica dell’uso dell’errore. Il software, infatti, non modifica se stesso né prende vie nuove non previste dal progettista ma, semplicemente, compensa continuamente l’errore del processo rispetto ad un obiettivo regolando l’afflusso di materiali.

 

In tutti i casi va stabilito un principio forte, e capace di durare nel tempo: qualsiasi macchina, stocastica o deterministica, euristica o no, deve essere sempre leggibile e comprensibile, passo per passo, dal suo progettista o da un altro progettista che ne prenda in mano la manutenzione in seguito.

 

Noi individuiamo invece in tale cultura un elemento fondamentale, la perdita del quale, o il suo mancato sviluppo, sarebbero di grande ostacolo per lo sviluppo umano.

 

Assumiamo quindi, nella nostra missione, il compito di sviluppare al massimo tale cultura, per mezzo di studi specifici e di azioni coerenti nel mercato.

 

Pur identificando nel fondamentalismo del mercato la causa principale delle storture elencate, la nostra posizione non è contraria, né tantomeno ‘alternativa’ al mercato. Pensiamo che si possa, e che sia opportuno, perseguire nostre iniziative nel mercato, finalizzate ai nostri obiettivi.

 

In generale:

 

a)     Favorire la nascita della Space Economy in Europa e nel Pianeta. La definizione di Space Economy è poco più di escamotage, per ora. Un tentativo di giocare a rimorchio del termine new-economy, tanto di moda, per introdurre un concetto di economia di vero sviluppo. L’economia spaziale, appunto.

 

b)     Promuovere una discussione sulle priorità della ricerca tecnologica e della ricerca scientifica, indicando il tema della colonizzazione spaziale, come criterio principale di orientamento nella scelta di priorità di ricerca. Questa non è certo un’attività da cui si possa ricavare profitto o finanziamento per i nostri progetti. Ritengo tuttavia che si tratti di un’attività propagandistica, che conviene praticare ogni volta che ne abbiamo la possibilità e non ci costa troppo.

 

c)    Promuovere, in tutti gli ambiti in cui operiamo, l’idea di un piano strategico di colonizzazione dello spazio geo-lunare e del sistema solare. (Che fine ha fatto il World Space Program di Karl Doetsch? È forse stato messo a tacere da autorevoli difensori di interessi di parte?). Vedi sopra, per quanto riguarda la profittabilità di questa attività.

 

d)    Mettere a punto un nostro piano (teorico) di colonizzazione dello spazio geo-lunare per passi successivi. Poiché la definizione di un simile piano, se non deve essere una cosa superficiale o da operetta, costa tempo e fatica, non è superfluo puntualizzare quanto segue:

 

i)              Se ci accontentiamo di andare a lavorare per aiutare a sviluppare idee altrui, allora ci sono “solo” i problemi ben noti di sviluppare un’azione marketing, poi un’azione commerciale. Cosa che sia Andromeda, sia PLION, sia Netsurf fanno abitualmente, ed anche MCBC farebbe, se si trovasse ad operare autonomamente sul mercato. Non guasta, in genere, specie se si è delle vecchie lenze con decenni di esperienza, proporre proprie metodologie, ma si deve restare comunque all’interno di un quadro progettuale di riferimento noto, e determinato dal cliente.

 

ii)          Se vogliamo invece proporre nostre idee e spunti progettuali nostri, il discorso cambia completamente. In questo caso non si tratta tanto di trovare clienti, quanto dei finanziatori/investitori, e di convincerli che la nostra idea frutterà dei profitti. Si deve fare attenzione a non regalare semplicemente le idee ad altri, e si deve fare attenzione a non portare avanti come proprie idee la cui proprietà intellettuale possa essere rivendicata da altri.

 

iii)               L’unica alternativa, che io conosca, sta nei bandi di gara ESA e UE. Se avessimo la fortuna di incappare in un bando di gara che assomigli ad una nostra idea, e riuscissimo poi a convincere la commissione che il nostro progetto va ancora meglio, potremmo avere dei fondi per sviluppare qualcosa di nostro.

 

e)    Ovviamente le considerazioni sulla profittabilità delle diverse attività valgono nelle nostre condizioni attuali. Se, più avanti, i media si accorgessero di noi il cammino potrebbe essere non più così in salita.

 

In particolare:

 

f)    Favorire la nascita e la continuazione della cultura tecnologica dell’affidabilità e sicurezza dei sistemi, anche con progetti concreti alla nostra portata (es. selezione di sistemi operativi orientati al real time, se ne esistono, o progettazione di un sistema operativo con requisiti deterministici).

 

i)              Sulla fattibilità/opportunità di investire nostro tempo: questo è un tema sul quale potremmo investire portando avanti autonomamente una parte di progettazione.

 

ii)          Per quanto riguarda l’ambiguità “nascita/continuazione”, avrei detto in prima battuta ‘continuazione’, perché bene o male negli anni ’80 è nata una cultura dei sistemi real-time. Ma mi sembra che di quella cultura ben poco sia poi passato nel sistema di istruzione, sia nelle facoltà d’ingegneria che d’informatica. Spesso, nel mio lavoro, ho l’impressione che tale cultura sia ristretta a poche persone, che hanno fatto automazione negli anni ’80. A volte queste poche persone sono “tollerate come un male necessario” nei progetti, più spesso sono viste come dei rompiscatole ipercritici, che  impediscono a schedulazioni tanto brillanti di essere sviluppate nei tempi previsti J. Quindi, nei momenti di maggior stanchezza e scoraggiamento propendo per il termine “nascita”, mentre se sono un po’ più riposato parlo di “continuazione”. Per essere seri: vale certo la pena di indagare in rete, per farci un’idea di ciò che esiste, in proposito, e quindi capire meglio se sia più appropriato parlare di ‘continuazione’ o di ‘nascita’.

 

g)    Favorire la nascita di Strumenti di Credito e di Servizi Marketing orientati alla Space Economy, anche con progetti direttamente da noi stimolati e promossi (ad es. ricercando la collaborazione di Camere di Commercio, Istituti di Ricerca, Istituzioni Comunitarie, Associazioni di Industriali o Commercianti, ecc…). Sulla fattibilità/opportunità di investire nostro tempo:

 

i)              Sul tema finanziario (strumenti di credito, fondi d’investimento, World Space Fund, ecc…) mi piacerebbe molto proporre di investire un po’ di tempo. Purtroppo qui ci mancano le competenze: nessuno di noi è un economista.

 

ii)          Sul tema dei Servizi Marketing invece penso si possa fare qualcosa, in termini di avanprogetto, vista la forte componente informatica degli strumenti di cui abbiamo già discusso altre volte.

 

h)    Sviluppare studi che mettano a frutto le nostre competenze tecnologiche nelle direzioni individuate (es. il progetto CANTIERI SPAZIALI). Per quanto riguarda la fattibilità/opportunità, potrebbe valere la pena, anche qui, di svolgere autonomamente una parte di progettazione, se individuiamo la possibilità di partecipare a qualche gara ESA o altro.

 

i)    Selezionare ed aiutare, per quanto sta in noi, progetti concretamente e decisamente finalizzati all’abitazione ed al lavoro dell’uomo nello spazio. Un Work Package tutto da sviluppare, se lo riterremo prioritario. La selezione implica ovviamente un lavoro di analisi, e non un semplice “visto-piaciuto”. L’aiuto, poi, può andare dal semplice link sulle nostre pagine (devo ancora capire se ha un valore aggiunto per i linkati) fino alla raccolta di fondi/investimenti per aiutare concretamente alcuni progetti non nostri (questo sarebbe nella direzione di g.i.), passando per varie posizioni intermedie (nostri servizi informativi da pubblicare su Le Scienze ed altre riviste, ecc…).

 

Un WP specifico del seminario dovrà essere dedicato a dividere attentamente i temi su cui possiamo/vogliamo sviluppare autonomamente una parte di progettazione da quelli che riteniamo di pura propaganda. L’obiettivo della progettazione autonoma dovrebbe essere quello di avere gli elementi per proporre il progetto a partner finanziatori o clienti, e/o partecipare a gare per progetti di ricerca.

 

 

 

[Codice: S00-WP1110_PAP_TE_00084_TEDIF]