Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Magazine

L’opportunità Dei Big Data
L’opportunità Dei Big Data

Nel 1997 esce il secondo libro della "Trilogia del Ponte" di William Gibson, Aidoru, dove è presente il personaggio di Colin Laney, un netrunner che ha la capacità di individuare i punti nodali in un insieme di dati casuali di informazioni. Apparentemente controcorrente in un momento nel quale i media davano internet per finito (nel 1997 avevano chiuso quasi 5 milioni di siti web) il libro di Gibson anticipava il futuro e, soprattutto, anticipava il concetto di Big Data e del poter estrapolare dati ordinati da un insieme di questi che appare caotico.

Cosa si intende per Big Data.
Ad oggi, ogni sessanta secondi, vengono generati più di 350.000 tweet, su facebook vengono caricate circa 243.000 immagini e 70.000 ore di video, su google sono fatte quasi 4 milioni di ricerche e 500 mila sono le app scaricate dai vari store. Tutto questo insieme di dati non va mai perso ma viene immagazzinato dai fornitori di servizi per essere analizzato e utilizzato; la combinazione del volume di dati e della velocità con la quale è generato prende il nome di Big Data.
Ma parlare di big data solo per trattare dei dati internet generati dagli utenti è limitativo, anche i navigatori satellitari generano dati che vengono inviati ad aziende private che li elaborano, i sensori delle automobili o delle case sempre più smart generano dati che vengono inviati ed analizzati dalle aziende. Abbiamo quindi, oltre che una grande quantità di dati inviati a grande velocità anche una grande varietà di essi che sono apparentemente disomogenei.
Non bisogna quindi confondere il concetto di Big Data con quello di database. Se un database tradizionale, infatti, può gestire tabelle magari composte di milioni di righe, ma al massimo su poche centinaia di colonne, quando parliamo di Big Data ci riferiamo a strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne, dove i dati non sono strutturati in maniera omogenea come ad esempio meta dati, posizioni geografiche, valori rilevati da sensori e quasi sempre destrutturate.
Possiamo dire quindi che la definizione di Big Data è composta da tre "V": Volume di dati, Velocità con la quale sono generati e Varietà, di informazioni che apparentemente non vogliono dire nulla e che, soprattutto per la loro disomogeneità non sembrano avere correlazioni logiche nel modo di pensare classico ma la somma di queste tre V, come risultato, dà un'altra V: il Valore che è considerato l'aspetto più importante dei big data e che si riferisce al processo di individuazione di un elevato valore nascosto all'interno di un gran numero di dati (chiamato peso). Nell'analisi di questo tipo di dati è quindi fondamentale valutarne la veridicità e la qualità affinché possano effettivamente generare valore.

Quale utilizzo viene fatto dei dati?
Iniziamo subito a dire che questa grande quantità di informazioni in così poco tempo (parliamo solitamente di almeno un petabyte per arrivare a diversi yottabyte di dati) viene analizzata ed utilizzata in maniera differente a seconda dell'azienda o ente che se ne occupa. Tutti noi sappiamo l'uso che ne viene fatto nell'ambito del marketing da aziende quali Amazon o Google per il così detto "metodo della raccomandazione" per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri: tutti i dati di un cliente, navigazione, ricerche, acquisti, eccetera, vengono analizzati e messi in relazione con quelli di milioni di altri utenti per cercare un modello di comportamento comune e suggerire un acquisto che solletichi l'interesse di chi sta navigando nel sito. Ma gli algoritmi non si limitano solo a questo: in base alle ricerche riescono a scoprire se, ad esempio, la persona che sta navigando in quel momento sia uomo o donna, se ha figli, animali domestici, nel caso, ad esempio, di una donna se è incinta e suggerirle, in questo caso, anche possibili acquisti per il futuro e/o coupon; il tutto apparentemente in maniera casuale. Anche le agenzie di carte di credito possono sfruttare le informazioni sugli acquisti che vengono fatti online per predire se un acquirente sia affidabile o meno: secondo alcune analisi, ad esempio, le persone che comprano i feltrini per i mobili rappresentano i clienti migliori per gli istituti di credito, perché più attenti e propensi a colmare i propri debiti nei tempi giusti. Quindi da un punto di vista del marketing puro l'analisi interpretativa dei dati è quella metodologia che dà valore ai big data tramite la quale le aziende possono trovare benefici come aumento delle vendite, miglior soddisfazione del cliente, maggiore efficienza, eccetera.
L'ambito di utilizzo dei Big Data, per fortuna, non si limita solamente al settore commerciale, ma può espandersi in una grandissima varietà di campi.
Un primo esempio che possiamo considerare è Ireact, il risultato di un progetto europeo triennale che ha sviluppato la prima piattaforma europea per integrare i dati di gestione delle emergenze provenienti da più fonti, tra cui quelli forniti dai cittadini attraverso i social media e il crowdsourcing1 .
Il sistema, come abbiamo detto, processa diverse fonti di informazioni come le immagini satellitari, le foto pubblicate dagli utenti sui social media, lo storico degli eventi accaduti in un determinato territorio, dati rilevati dai sensori dell'Internet of things, per poter aiutare a decidere quale strategia attuare in caso di calamità o di un evento catastrofico su un territorio e guidare in tempo reale le persone che prestano soccorso, creando nuove mappe mentre la situazione cambia, indicare quale azione operare in un determinato contesto, eccetera.
Nell'ambito della lotta alla criminalità l'utilizzo dei Big Data trova la sua attuazione nel programma Sirio al quale partecipano UNICRI, la Direzione Nazionale Antimafia ed il CERN e del quale l'Italia rappresenta uno dei principali partner per quanto riguarda l'elaborazione e la fornitura dei dati. Su Sidna, la piattaforma digitale del D.N.A., infatti, vengono memorizzati tutti i procedimenti antimafia e antiterrorismo italiani formando un database che contiene oltre due milioni di nominativi. Per fare un esempio Europol ne contiene solo 90.000 e Interpol 250.000. Ma a fare la differenza non è solo la quantità di dati presenti ma anche la qualità in quanto tutte le informazioni inserite provengono dalle direzioni distrettuali antimafia e quindi hanno un altissimo livello di attendibilità; le ultime 180 operazioni contro la criminalità organizzata nel nostro paese (dati relativi a marzo 2020) hanno avuto origine dall'analisi e l'incrocio dei Big Data. Alla base del processo che permette di trovare delle correlazioni tra i dati presenti in questo database vi sono gli strumenti di visual analytics ideati dal professor Daniel Kime dell'Università di Costanza; questi procedimenti combinano le informazioni semantiche specifiche del dominio di appartenenza con concetti astratti dei dati estratti e di visualizzarne i risultati sotto forma di reti. In questo modo possono emergere relazioni tra un mafioso ed un prestanome oppure tra un criminale ed il tipo di bene confiscato. Lo strumento che permette tutto questo si chiama Colaboration Spotting e, inizialmente, era nato per scopi scientifici mentre il suo uso, in questo campo, è quello di permettere alla Direzione Nazionale Antimafia di prevedere le future strategie criminali attraverso lo studio dei modelli organizzativi dei loro protagonisti.

Dagli algoritmi al deep learning
Nell'ambito scientifico l'utilizzo dei big data sta creando delle nuove opportunità ed anche degli scontri.
Secondo il fisico Chris Anderson la grande quantità di dati, combinata adeguatamente ad appropriate tecniche statistico-matematiche sarebbe in grado di soppiantare ogni altro strumento analitico, rendendo il metodo scientifico obsoleto. Anderson sostiene che nell'era del petabyte la correlazione possa sostituire la causalità e quindi dare la possibilità alla scienza di proseguire senza bisogno di modelli coerenti, teorie unificate o altre spiegazioni meccanicistiche: in pratica le congetture e le confutazioni saranno sostituite da "risposte" che emergeranno da sole dall'insieme di dati.
Se questo si realizzasse avremmo una nuova metodologia di ricerca che andrebbe ad aggiungersi a quelle già esistenti: il metodo sperimentale in vigore dai tempi di Galileo, il metodo matematico che ha permesso di analizzare la fisica quantistica e relativistica ed il metodo computazionale, che fa largo uso di simulazioni numeriche.
Affinché questa nuova metodologia possa svilupparsi i ricercatori fanno largo uso dell'apprendimento automatico, un metodo che utilizziamo normalmente tutti i giorni senza saperlo: gli assistenti vocali di Google, Amazon ed Apple, che hanno raggiunto livelli quasi umani di accuratezza, non fanno più uso di regole impartite da un programmatore, ma costruiscono in autonomia un modello del sistema che devono emulare attraverso l'analisi statistica di un ampio insieme di dati.
Anche se non utilizziamo gli assistenti vocali avremmo sicuramente utilizzato un chatbot che non è altro che un algoritmo capace di interloquire con una persona in modo sensato senza conoscere il significato delle parole o non capendo il significato del discorso ma solamente utilizzando milioni di conversazioni come esempi.
Gli algoritmi di deep learning, che si stanno facendo sempre più sofisticati, fanno viaggiare le informazioni verso una rete composta da milioni di nodi. Ogni nodo si accende in base a dei segnali che riceve dai vicini ed i segnali sono analizzati in base al "peso" (importanza) che hanno nella connessione dove viaggiano: una connessione con peso maggiore ha una probabilità maggiore di far cambiare lo stato del nodo dove arriva. Una volta identificati milioni di numeri viene creato un modello del problema (ad esempio in medicina permette di identificare un tumore in un insieme di pixel) e un programma è in grado di risolverlo, pur non sapendo nulla dell'ambito di sviluppo del problema (come i chatbot), il tutto tramite il deep learning e l'analisi dei Big Data.
Non tutti sono però d'accordo con queste idee. Il fisico Poincaré diceva "La scienza è fatta di dati come una casa è fatta di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una casa". I dati, infatti, sono sì in grado di trasmettere contenuti ma i risultati possono essere influenzati dalla lettura che se ne dà e da come vengono correlati tra di loro. I modelli di apprendimento, ad oggi, indipendentemente dalla loro complessità, sono in grado di interpolazioni efficaci tra i dati analizzati ma l'estrapolazione di questi ultimi non supererà mai il loro livello di addestramento; secondo il matematico Edward R. Dougherty questi algoritmi non sono in grado di spiegare le correlazioni che trovano e distinguere tra falsi positivi e non, come la famosa ricerca che correlava i divorzi nel Maine ed il consumo di margarina tra il 2000 ed il 2009. Come esempio delle sue teorie Dougherty porta sempre la teoria generale della relatività, la quale non sarebbe mai potuta essere prodotta dall'estrapolazione dei Big Data solamente.

Quale presente e quale futuro?
Il nostro futuro passa anche dai big data e probabilmente i detrattori hanno in mente solamente l'utilizzo che ne viene fatto da parte delle grandi agenzie che lo utilizzano per il marketing, mentre pochi pensano che stanno nascendo delle nuove figure professionali specializzate nel settore come i Data Scientist, il Data Engineer o il Data Analyst e si prevede un mercato di 5 milioni di posti di lavoro in crescita.
Da un punto di vista puramente scientifico la possibilità di elaborare sempre più dati e sempre più velocemente creando associazioni porterà a "intelligenze artificiali" sempre più sofisticate che troveranno la loro collocazione nella vita di tutti i giorni. Pensiamo ad esempio alla difficoltà di un'auto a guida autonoma che deve decidere se un pupazzo di neve possa o meno attraversare la strada: la possibilità di comparare migliaia di informazioni che provengono dai sensori delle altre auto, compararli con migliaia di immagini presenti in rete e decidere che il pupazzo di neve non può attraversare la strada perché non è un uomo sarà possibile grazie ai Big Data.
Nel 2008 un progetto di Google permise di prevedere l'avanzamento dei focolari di influenza negli USA solamente analizzando i gruppi di termini cercati sul suo motore di ricerca più velocemente di quanto poté fare il ministero della salute analizzando i dati di immissione ospedaliera. Pensiamo a come potrebbe essere stato utile un utilizzo appropriato dei dati nell'analizzare l'evoluzione del COVID-19 nel mondo.
Certo rimane il problema di quanta privacy perdiamo ma a pensarci stiamo già rinunciando alla nostra privacy ogni volta che postiamo una foto o condividiamo un pensiero, quindi meglio perderla per avere dei vantaggi che perderla solo per avere della pubblicità in più.

 


Bibliografia:
Prisma N.17, marzo 2020, "I Big Data, contro il crimine organizzato", pp.38-41
Prisma N.3, dicembre 2018, "Big Data, come costruire modelli teorici in automatico?", pp.32-37
I-React, http://project.i-react.eu/
Youtube, 14 marzo 2018, conferenza "Elena Baralis, La nuova scienza dei dati: la sfida dei big data"
Youtube, Novembre 2014, "Analyzing and modeling complex and big data, Professor Maria Fasli, TEDxUniversityofEssex"

1 crowdsourcing è la richiesta di idee, suggerimenti, opinioni, rivolta agli utenti di Internet da un'azienda o da un privato in vista della realizzazione di un progetto o della soluzione di un problema.

Dal Bit A Qbit
Dal Bit A Qbit

All’inizio degli anni ’80 il premio Nobel per la fisica Richard Feynman si pone la domanda se fosse stato possibile, attraverso un computer classico, simulare la meccanica quantistica. La risposta che lo stesso Feynmann si dà è che no, attraverso un computer classico non è possibile simulare la meccanica quantistica.
Infatti, sebbene sia possibile attraverso i computer classici , elaborare calcoli di meccanica quantistica e quindi emularne il comportamento non è possibile ricreare in un computer classico un comportamento analogo a quello della meccanica quantistica.
Da qua la necessità di iniziare la ricerca per sviluppare un computer quantistico.
Certo, dire che in un computer classico non è possibile emulare il comportamento della meccanica quantistica, può lasciare spiazzati e la domanda che sorge spontanea è: ma se si può emularne il comportamento perché non è possibile anche simularlo?
Per capire questo bisogna avere delle idee basilari sulla meccanica quantistica, in particolare poche e per niente intuitive regole che sembrano uscite dal cappello di un mago.

Le regole basilari
Sebbene la Fisica quantistica sia alla base dei computer quantistici, come la fisica classica è alla base dei computer classici, non è necessario conoscerla per poter capirne il principio di funzionamento e la stessa matematica (solo quella che è alla base dei computer quantistici non della fisica quantistica) non è particolarmente impegnativa.
Diciamo subito che (per quanto contro intuitivo possa sembrare) dobbiamo considerare la possibilità che un sistema fisico nella meccanica quantistica può trovarsi contemporaneamente in tutti gli stati possibili (sovrapposizione coerente di stati). Per semplificare il concetto possiamo dire che se un elettrone può passare da due fenditure, una a destra e una a sinistra, passerà contemporaneamente per entrambe.
In realtà il concetto è molto astratto e riuscire a darne una rappresentazione mentale avulsa dalla matematica che ne sta alla base è veramente difficile.
L’altro concetto da sapere è chiamato entanglement e consiste nella possibilità che due particelle che hanno precedentemente interagito in qualche modo, se separate e messe a distanze elevate, possono ancora interagire nello stesso istante: se modifico la prima la seconda subirà la stessa modifica istantaneamente.
Com’è possibile tutto questo? Per capirlo bisogna sapere che esiste un confine tra la fisica classica e la fisica quantistica, e questo confine prende il nome di lunghezza di Planck: al di sotto di questa misura tutte le regole della fisica classica non funzionano più ma si utilizza la “funzione d’onda” che è l’incognita dell’equazione di Schrödinger e che rappresenta l’ampiezza di probabilità di trovare la particella in un preciso istante; bisogna però considerare che, sebbene l’evoluzione della funzione d’onda è determinata dall’equazione di Schrödinger, il suo risultato è deterministico.
Finiamo con un esempio per confondere ancora di più le idee: se io considero un sistema composto da un’auto che si muove lungo una strada diritta con un’accelerazione costante potrò sapere in qualunque istante dove si trova ed a quale velocità; in meccanica quantistica, se misuro una particella che si muove in una determinata direzione, non potrò sapere, contemporaneamente, la posizione ed il momento.
Se si capiscono questi concetti che possono sembrare contro intuitivi capire il principio di funzionamento di un computer quantistico diventa abbastanza semplice.

I Qbit
Alla base dei computer quantistici ci sono i Qbit, che come i classici bit possono avere valore 1 e 0.
Mentre nei computer classici il bit corrisponde alla presenza o assenza di un segnale, non è così per i qbit che possono essere rappresentati come un vettore a due dimensioni di modulo (lunghezza) pari a 1.
I Qbit hanno due valori di base |0> e |1>  (il simbolo | > è la notazione di Dirac ed indica uno stato quanto-meccanico); ogni valore può assumere lo stato di Ground:

Stato Ground Qbit


E lo stato eccitato

Stato Excited Qbit

Ma, come abbiamo visto precedentemente, può trovarsi anche in una situazione di sovrapposizione e quindi essere in entrambi gli stati, in questo caso viene rappresentato dalla funzione:

|ψ> =α|o>+β|1>

Con α e β che rappresentano la possibilità che il nostro Qbit si trovi in un determinato stato. È importante sottolineare che |ψ> non rappresenta un’ulteriore stato come 0 e 1 altrimenti non sarebbe più un sistema binario ma ternario!
Dunque |ψ> alla fine è un vettore in uno spazio che però non è facilmente disegnabile o immaginare in quanto α e β sono numeri complessi. La rappresentazione più utilizzata è quella della sfera di Bloch che ci permette anche di fare chiarezza su quanto detto fino ad ora:

Sfera Bloch

 

Nella sfera di Bloch abbiamo rappresentato il nostro vettore |ψ> in un punto qualsiasi della sfera che ha un angolo φ con l’asse X e θ con l’asse Z e, visto che la sfera ha infiniti punti, può – teoricamente-  trovarsi in infinite posizioni
Per chi ha un po’ di dimestichezza con gli operatori logici classici possiamo immaginare che se un Qbit si trova nello stato |0> e applichiamo una rotazione lungo l’asse delle X cambia stato e diventa |1> e quindi questa operazione può essere considerata al pari di un NOT nella logica binaria classica.

Not Qbit

 

 

Differenza tra computer classico e quantistico
Nei computer classici, abbiamo detto nell’introduzione, si utilizzano i bit che hanno valore 0 oppure 1. Da solo un bit vuol dire poco ed è per questo che vengono raggruppati insieme per trasformarsi in operazioni e prendono il nome di registri all’interno della CPU di un computer.
Quando, ad esempio di parla di processori a 64 bit ci si riferisce alla dimensione dei registri della CPU. All’inizio i registri erano costituiti da 8bit (che è ancora l’unità di misura del Byte). La capacità di immagazzinare ed elaborare l’informazione è 2 (il numero di stati disponibili in un bit) elevato al valore del registro. Quindi se si parla di 8bit ci si riferisce al valore di 255, se si parla di 16bit 65535, e così via. Se volessimo fare due conti vediamo che con gli attuali computer a 64 bit parliamo di un valore intorno a 18.446.744.073.709.551.615!
Tutte le operazioni che un computer può eseguire sono solo 7 che si combinano tra di loro e sono quelle della logica booleana (OR, NOT, AND, NAND, XOR, NOR, XNOR); quando un computer classico deve fare un’operazione lavora in maniera “simile” al nostro cervello: quando noi facciamo, ad esempio la somma 19+12 calcoliamo prima 9+2 (la somma delle unità) e riportiamo 1, poi ripetiamo l’operazione e sommiamo 1+1 (le decine) ed il valore riportato dall’operazione precedente utilizzando sempre le operazioni.
I computer funzionano grosso modo allo stesso modo, ripetendo l’operazione N volte in base a quanti bit sono implicati nell’operazione stessa. Quindi avrò una serie di passaggi alla fine di ognuno dei quali avrò uno stato definito dei miei registri fino a quando i bit non saranno esauriti; nel caso della somma di due o più valori, ad esempio un computer utilizzerà le operazioni OR per fare la somma e AND per il riporto.
Anche i computer quantistici utilizzano dei registri e, anche loro le operazioni che possono fare non sono moltissime ma, a differenza dei loro predecessori, grazie alla sovrapposizione di stati, dopo ogni passaggio il Qbit si troverà in tutte le possibili combinazioni contemporaneamente. I registri che contengo i Qbit, invece non saranno mai in tutte le combinazioni possibili ma solamente a 2n possibili combinazioni dove N è il numero di Qbit che compone il registro; inoltre può capitare che si voglia utilizzare un Qbit come Qbit di controllo e quindi le combinazioni saranno 2n-1 in quanto 1 Qbit mi darà sempre lo stesso risultato.
Un’altra differenza appare nel momento in cui si va a misurare il valore del registro del Qbit: non avrò più il valore 1 o il valore 0, ma grazie sempre alla sovrapposizione avrò una certa probabilità che risulti uno dei due valori, e questa probabilità è legata ai coefficienti α e β dell’equazione vista precedentemente, in particolare il |α|2  avrà una certa probabilità di avere come risultato |0> e il |β|2 di essere |1> .
Un’altra di particolarità dei Qbit è dovuta all’ entanglement: se prendo 2 Qbit che faccio “interagire” insieme creando uno stato, appunto, di entanglement, quando li separo, se il primo mi restituirà |1> quando misurato, anche il secondo (indipendentemente da quanto sia distante dal primo e dal suo stato) mi restituirà|1>, mentre se misurato separatamente mi potrà restituire, tranquillamente un altro risultato.
Le porte logiche dei computer quantistici poi si occupano di “manipolare” lo stato di sovrapposizione quantistica del Qbit e restituisce in output uno stato diverso di sovrapposizione quantistica “alterandone” le probabilità. Quando si misurerà il risultato tutte le possibilità collasseranno in uno stato di 0 o 1, ovvero il risultato con la relativa probabilità.
Ecco perché i computer quantistici processano tutte le combinazioni possibili in un unico processo e perché risultano più veloci dei computer normali. Non importa se la mia è solo una probabilità, se questa probabilità esce 10.000 volte vuol dire che può tranquillamente essere considerato il risultato esatto e chi pensa che questo sia un modo “lento” di operare perché la stessa operazione deve essere ripetuta più volte deve considerare che la velocità di elaborazione di un computer quantistico della stessa operazione è molto maggiore di quello di un computer classico per la stessa operazione ripetuta una sola volta. Le uniche volte nelle quali le operazioni non sono ripetute, ovviamente, sono nel caso che la probabilità sia del 100% ovvero il risultato sia|1>.
Fino ad ora abbiamo parlato di probabilità ma è importante avere in mente il concetto che quando si parla di probabilità nei computer quantistici ci si riferisce ad un’ampiezza di probabilità esprimibile tramite la campana gaussiana e non dobbiamo confonderci con la casualità di un risultato.

A chi serve un computer quantistico?
Per far funzionare un computer si utilizzano quelli che vengono chiamati algoritmi, ovvero una serie di istruzioni che eseguono una serie di operazioni per arrivare ad un risultato, e poco importa che si utilizzi la programmazione strutturata o ad oggetti, il concetto di algoritmo non cambia: sempre operazioni ed istruzioni serializzate sono.
Nei computer quantistici, invece abbiamo appena visto, le operazioni tendono ad essere elaborate in parallelo ed è lì che la maggior velocità di elaborazione entra in gioco.
Risulta quindi evidente che utilizzare un computer quantistico per vedere un film in full HD, navigare in internet, progettare un grattacielo o qualsiasi altro tipo di programma classico non ha molto senso, anzi potrebbe risultare più lento nell’elaborazione di un computer classico. Dove invece l’elaborazione quantistica, dà il massimo di sé, è (oltre che per i problemi di fisica quantistica) appunto nelle operazioni che devono essere parallelizzate e per le quali gli algoritmi devono essere scritti appositamente.
Gli esempi dove l’utilizzo di un computer quantistico e che più colpiscono l’immaginazione sono la fattorizzazione dei numeri primi, della decrittazione dei codici segreti come quelli che stanno alla base della RSA, e l’analisi dei Big Data.
Non stupisce quindi che tra i maggiori investitori nella ricerca sui computer quantistici, e tra i primi ad aver creato un vero computer quantistico funzionante, vi sia Google, leader nel trattamento di dati tramite i suoi servizi di ricerca nel web e di cloud.
Anche IBM ha sviluppato un suo computer quantistico e, a differenza di Big G, ha rilasciato anche parecchie specifiche, dando la possibilità a chiunque, tramite un servizio di cloud, di provare a programmare il proprio computer quantistico.

Quale futuro?
Indubbiamente il futuro è anche dei computer quantistici che però non sono un sostituto dei classici computer e non lo saranno ancora per parecchio tempo.
Questo però non esclude che negli ultimi anni l’interesse per i computer quantistici è notevolmente aumentata; Microsoft, ad esempio,  ha mostrato il suo interesse per la programmazione dei quantum computer rilasciando Q# per il frameworks .Net che permette di creare programmi per i computer quantistici, mentre il fatto che ancora non esista uno standard, lascia aperto un buco che sarà riempito da chi riuscirà ad imporsi per primo come leader (come è accaduto per il computer PC IBM a metà degli anni ’80 del secolo scorso).
Le dimensioni e le peculiarità necessarie nello sviluppo dei computer quantistici (bassissima temperatura e/o campi elettromagnetici particolarmente intensi per poter modificare gli stati degli atomi di idrogeno ad esempio) sono un altro impedimento per la massificazione di questa tecnologia come invece è successo con i computer classici che, potendo disporre di prezzi sempre più bassi e dimensioni ridotte, sono diventati uno strumento  presente in ogni casa.
Facilmente il futuro dei computer quantistici sarà simile a quello che già IBM sta testando, ovvero il Cloud.
Mentre adesso si può accedere al computer IBM tramite Cloud solamente per provare a programmare, in futuro utilizzeremo algoritmi quantistici direttamente dal nostro smartphone per accedere ai servizi che necessitano di computer quantistici per essere eseguiti e che saranno ospitati su server remoti, trasformando il nostro dispositivo in un semplice terminale intelligente.

 

NOTE ALL’ARTICOLO: alcuni concetti sono stati semplificati allo scopo di renderli comprensibili dato che potevano essere difficili da capire; allo stesso modo sono tate utilizzate parole che non sono i termini esatti ma che aiutano a comprendere l’articolo ad un numero maggiore di utenti

Cyber Educazione Al Tempo Del Covid-19
Cyber Educazione Al Tempo Del Covid-19

In Italia si è iniziato a discutere della possibilità di modificare gli ambienti di apprendimento e promuovere l’innovazione digitale nella scuola già nel 2007. Nel 2015 il governo Renzi promosse la riforma della scuola chiamata “La Buona Scuola” della quale il Piano Nazionale Scuola Digitale ne era un pilastro fondamentale.
All’inizio l’idea di “svecchiare” la scuola ed i metodi di insegnamento venne accolta con entusiasmo e l’introduzione di più di 35.000 LIM (Lavagna Interattiva Multimediale) nelle scuole già dal 2008 sembrò il primo passo di un percorso che avrebbe migliorato l’insegnamento.
In realtà, a distanza di più di 10 anni, la situazione non è così rosea come avrebbe dovuto essere nelle previsioni dei vari governi che si sono succeduti.
Il divario tra le varie regioni è ancora molto elevato e solamente il 70% degli istituti è connesso alla rete internet in modalità cablata o wireless ma, la maggior parte delle volte, con una connessione inadatta alla didattica digitale;solamente il 41,9% delle classi è dotata di LIM e il 6,1% di proiettore interattivo.
Per finire l’indagine sull’insegnamento e l’apprendimento OCSE TALIS 2018 in Italia segnalava che il 31% dei dirigenti scolastici riportava che la qualità dell’istruzione nella propria scuola era frenata dall’inadeguatezza della tecnologia digitale per la didattica.
In verità quello che all’apparenza è un mezzo flop della scuola digitale non è altro che il riproporsi del modo di fare tipicamente italiano dove abbiamo uno stato che stanzia fondi per dei programmi, senza però assicurarsi che vi siano le infrastrutture necessarie a supportare i cambiamenti in corso, insegnanti che non sono preparati a sufficienza o sono pieni di preconcetti e studenti che spesso sono più preparati degli insegnanti nell’uso della tecnologia e se ne approfittano.
Se la vita fosse continuata normalmente questi problemi di scuola digitale non avrebbero influenzato particolarmente lo svolgimento delle lezioni, e la scuola e gli studenti avrebbero continuato normalmente, ma nella primavera del 2020 l’arrivo del Covid-19 e la chiusura delle scuole ha portato alla luce l’inadeguatezza e l’impreparazione del sistema digitale scolastico italiano.


Il problema degli insegnanti e delle scuole
La prima impreparazione, è quella degli insegnati, che spesso ignorano gli strumenti disponibili per poter fare lezione online o/e molto più spesso hanno atteggiamenti prevenuti verso le tecnologie, come nel caso dell’Istituto comprensivo Chiodi di Roma dove il 58% degli insegnati della scuola media (in base ad un questionario a loro rivolto dalla dirigenza scolastica) non hanno voluto fare lezione online per non apparire in video. In un’intervista rilasciata al Corriere della Sera il 29 marzo 2020, la preside cerca di difendere gli insegnanti “…Sono insegnanti non giovanissimi, poco abituati alle tecnologie anche se usano il registro elettronico”, e prosegue “…C’è un po’ di diffidenza per il mezzo, temono che le loro lezioni possano venire registrate e usate dagli studenti in modo inappropriato. Forse c’è una presa di posizione, un pregiudizio, il desiderio di conservare le proprie prerogative. Su come fare lezione, il professore è sovrano.
Fortunatamente per gli studenti di quella scuola c’è sempre un 42% di insegnanti che non la vede in questo modo e si è adoperata con l’aiuto della scuola a fare lezione online. Ma quello dell’istituto Romano non è un caso isolato, e molti sono stati gli insegnanti che si sono dimostrati non in grado di utilizzare le tecnologie che la rete ha messo a disposizione per fare lezione.
A fronte di insegnanti che si sono dimostrati non in grado di affrontare una simile situazione vi sono stati anche casi di insegnanti e scuole che, anche se impreparati ad affrontare un simile scenario si sono attivati, spesso in modo autonomo, per poter garantire agli studenti un minimo di lezioni giornaliere utilizzando diversi strumenti. Alcuni hanno, ad esempio, approfittato dell’occasione per mettere online le lezioni che hanno registrato, così l’offerta di formazione su siti quali youtube è cresciuta enormemente, anche a vantaggio di chi non è più studente e vuole approfittare della quarantena per ripassare le proprie conoscenze.
Il Miur, dal canto suo, ha prontamente aperto una pagina sul suo sito dove è possibile reperire informazioni e strumenti utili per l’insegnamento a distanza che, grazie a specifici Protocolli siglati dal Ministero dell'Istruzione e dell'Università, sono disponibili a titolo completamente gratuito.
Malgrado ciò, alla fine, ogni istituto si è organizzato come meglio ha potuto, soprattutto basandosi sulle competenze tecnologiche dei docenti e alla dotazione di dispositivi per connettersi online degli studenti.
Accade così che molti insegnanti, anziché utilizzare piattaforme quali Google Suite for Education, Office 365 Education A1 o Weschoo, che offrono un alto grado di funzionalità e di sicurezza hanno optato per strumenti quali Zoom, con tutti i problemi e le limitazioni che li accompagnano (Zoom, ad esempio, non permette nella versione gratuita sessioni superiori ai 40 minuti e ha riscontrato problemi di sicurezza sui dati personali).


Le famiglie e gli studenti
Gli strumenti che permettono l’insegnamento online, sebbene siano in grado di funzionare sui dispositivi mobili quali smartphone e tablet sono principalmente studiati per poter dare il meglio tramite l’uso di personal computer. Vi sono però molti casi di famiglie dove non è presente un computer, ma lo sono, invece smartphone (alcuni dei quali costano più di un computer di medie prestazioni) e tablet, così questi studenti sono penalizzati.
Nuovamente nell’offerta di lezione online i ragazzi più penalizzati sono quelli che hanno meno accesso alla rete perché vivono in aree rurali o non raggiunte e quegli studenti che vengono da situazioni famigliari e/o economiche più disagiate. In un articolo comparso sul “Il Gazzettino” del 21 marzo Barbara Sardella, dirigente del VI ufficio scolastico di Treviso, fa notare che vi sono molte famiglie straniere e italiane che sono in difficoltà economica che non dispongono né di un pc né di un tablet ma, al massimo, di un telefono che spesso deve essere condiviso con tutti i membri della famiglia. In particolare tramite un questionario fatto tra le famiglie è risultato che in 2 scuole primarie su 3 più del 50% delle famiglie non ha pc e non ha tablet.
Le situazioni sono migliori nei licei o negli istituti tecnici, dove studenti e famiglie hanno almeno un computer in casa.
Se pensiamo che i dati sopra riportati riguardano una provincia di una delle regioni considerate “ricche” in Italia è facile immaginare quale può essere l’impatto sull’istruzione degli studenti in realtà regionali meno fortunate.


Verso una scuola esclusiva e non inclusiva?
L’ articolo 34 della Costituzione Italiana recita: “La scuola è aperta a tutti. L'istruzione inferiore, impartita per almeno otto anni, è obbligatoria e gratuita. I capaci e meritevoli, anche se privi di mezzi, hanno diritto di raggiungere i gradi più alti degli studi”.
Purtroppo al tempo del Covid-19 l’accesso all’istruzione è diventato sempre più elitario ed esclusivo.
La prima causa è, abbiamo visto, l’incapacità (o la voglia) di alcuni insegnanti di adattarsi alle nuove tecnologie, ma il problema più grande riguarda l’impossibilità di chi non ha le disponibilità economiche per poter utilizzare gli strumenti messi a disposizione, ed è un problema che non è da considerarsi confinato solamente nel periodo della quarantena ma, con il passare del tempo, rappresenterà sempre di più una barriera tra l’istruzione di sere A e quella di serie B.
Quello che ha mostrato il Covid-19 riguardo la scuola digitale è che, se non verranno presi provvedimenti per garantire l’accesso agli strumenti per tutti gli studenti, avremo una scuola sempre meno inclusiva e più esclusiva e discriminatoria.
Non c’è dubbio che usciremo da quest’esperienza cambiati come società ma è ora che le istituzioni riflettano sulle scelte che stanno facendo e che iniziano a considerare la realtà: è bello creare una scuola informatizzata e digitale, che fa uso di strumenti moderni per l’insegnamento, ma bisogna GARANTIRE a tutti l’accesso a questi strumenti, mentre negli ultimi anni abbiamo assistito ad un continuo taglio delle risorse che lo stato destinava alla scuola.




Bibliografia:
https://www.miur.gov.it/scuola-digitale
https://miur.gov.it/web/guest/-/scuola-pubblicati-i-risultati-dell-indagine-sull-insegnamento-e-l-apprendimento-ocse-talis-2018
https://www.istruzione.it/scuola_digitale/allegati/Materiali/pnsd-layout-30.10-WEB.pdf

La Rete Internet Italiana Sotto Stress
La Rete Internet Italiana Sotto Stress

Quando pensiamo ad internet siamo portati a pensare a qualcosa di quasi astratto e, se non fosse per le bollette che paghiamo mensilmente, difficilmente ci ricorderemmo che si tratta di una rete comunque fisica, fatta di cavi, ponti radio e tutta una serie di infrastrutture; tutto il traffico generato dai diversi provider e che passa lungo le infrastrutture proprietarie, per poter comunicare tra di loro, si incontrano in nodi che vengono chiamati IXP (Internet Exchange Point). In Italia abbiamo circa 12 Internet Exchange Point, il principale dei quali è il MIX (Milan Internet eXchange) nato nel 2000 con soci 19 tra i principali operatori internet italiani.
Pochi giorni dopo l’entrata in vigore del decreto del 8 marzo 2020 riguardante le misure straordinarie ed urgenti per contrastare l'emergenza epidemiologica da COVID-19 e che, in pratica, faceva stare gli italiani a casa il MIX ha segnalato un aumento costante del traffico internet del 25% fino ad arrivare ai mille miliardi di bit al secondo.
Si potrebbe pensare che questo traffico fuori dalla norma sia dovuto all’aumento delle persone che lavorano da casa, il famoso smart working, tanto richiesto dal governo in questi giorni per chi ne ha le possibilità, o dall’aumento delle lezioni online di scuole e università, ma la realtà è diversa: la maggior parte del traffico è generato da video on demand e giochi online.
Nelle ore lavorative, infatti, l’aumento del traffico è stato solamente del 5-10% rispetto al normale traffico generato a dimostrazione che lo smart working non è un problema per la banda utilizzata, tanto più che gli strumenti che ne fanno uso hanno una codifica dei dati molto elevata e fanno poco uso di banda.
Se ancora vi fossero dei dubbi basta pensare che la piattaforma di gaming online Steam, con oltre 20 milioni di giocatori attivi contemporaneamente, ha superato ogni record, mentre un videogioco “vecchio” di ben 8 anni come Counter-Strike: Global Offensive ha superato il milione giocatori connessi contemporaneamente per la prima volta; mentre l’amministratore delegato di Telecom Italia, Luigi Gubitosi, ha parlato di un aumento di oltre il 70% del traffico generato dai videogiochi tra i quali Fortnite.

È chiaro che la rete internet italiana sia sotto stress, ma è altrettanto vero che fino ad ora ha retto bene alla prova e che probabilmente sarà in grado di reggere al traffico che si genererà in questi giorni, anche se vi saranno dei rallentamenti, ma questo non toglie che nel nostro paese è ancora grande il divario digitale tra tante zone del paese dove non esiste una copertura adeguata e che esclude molte persone dalla possibilità di usufruire dello smart working o di seguire lezioni online: secondo gli ultimi dati dell'Agcom, infatti, il 5% delle famiglie italiane non sono raggiunte dalla banda larga di rete fissa.
Quando l’emergenza Covid-19 sarà passata è auspicabile che molte famiglie valuteranno diversamente l’utilizzo della rete a casa, mentre molte aziende valuteranno come sia possibile affrontare alcune tipologie di lavoro in maniera differente.

5G Il Primo Cambiamento Dopo Il GSM
5G Il Primo Cambiamento Dopo Il GSM

Sebbene il termine 5G stia ad indicare la quinta generazione di sistemi di telefonia mobile non si tratta di un semplice evoluzione del 4G come i vari passaggi da 2G (il famoso GSM) a 3G, 4G per finire con il 4,5G  ma di qualcosa di diverso, come il passaggio tra Etacs che era ancora analogico, al GSM digitale
A metà dell’800 Maxwell elaborò le prime formule matematiche sull’elettromagnetismo che ampliavano e completavano gli studi di Faraday; Le ricerche di Maxell aprirono la porta a tutta una serie di studi di altri scienziati tra i quali vi era il tedesco Heinrich Hertz che nel 1886 costruì un apparecchio in grado di generare onde relativamente lunghe ed un altro che poteva riceverle.
Hertz si dimostrò scettico sull’utilità pratica del suo strumento dichiarando ” È priva di qualunque uso pratico (…) è soltanto un esperimento che prova come il maestro Maxwell avesse ragione…” e a chi insisteva interrogandolo sul suo punto di vista su ciò che poteva accadere come conseguenza della sua scoperta ribadiva :”Nulla presumo”. Per fortuna non tutti la pensavano così e l’esperimento di Hertz portò alla creazione della radio.
Le onde radio sono una radiazione elettromagnetiche e, queste ultime, sono presenti praticamente ovunque in natura: la stessa luce visibile è una forma di radiazione elettromagnetica, come le microonde, i raggi X e le onde radio.

Ma cosa sono le radiazioni elettromagnetiche?
La radiazione elettromagnetica può essere trattata secondo due punti di vista: secondo la teoria ondulatoria e secondo la teoria corpuscolare o quantica. Quella che interessa a noi, in questo momento è la teoria ondulatoria secondo la quale la radiazione elettromagnetica si comporta come un’onda che viaggia alla velocità della luce (c) e può essere descritta in termini della sua lunghezza d’onda λ e della sua frequenza di oscillazione ν dove la lunghezza d’onda è la distanza tra i massimi successivi di un onda, mentre la frequenza (ν) è il numero di cicli completi di un onda che passano per un punto in un secondo e l’unità di misura è chiamata Hertz.
Questi due parametri sono legati dall’equazione: λ = c/ν e da qua ricaviamo che la lunghezza d’onda è inversamente proporzionale alla frequenza ovvero aumenta con il diminuire della frequenza.
Per fare un esempio pratico la luce visibile dall’occhio umano è compresa tra una frequenza che varia dai 400 e 700 nanometri.

Onda elettromagnetica

Le onde radio hanno una lunghezza che varia dai 10cm ai 10Km, all’interno di questa lunghezza le frequenze che vengono utilizzate per la radiocomunicazione (Tv, Radio, Telefonia mobile, ecc.) va dai 3 kHz e 300 GHz. Fino ad ora, per la telefonia mobile, si sono utilizzate le frequenze che vanno dai 900 Mhz dei 2G (GSM) ai 2600 Mhz dei 4G (LTE) e tutti i telefoni cellulari 4G di ultima generazione sono in grado di passare da una frequenza all’altra a seconda della copertura. Questo tipo di frequenze hanno delle lunghezze d’onda che non vengono assorbite facilmente nel loro cammino da ostacoli di medie dimensioni, come le case o gli alberi e possono essere trasmesse a distanza perché (come dimostrato da Marconi) vengono riflesse dagli strati ionizzati dell'atmosfera. Sebbene tecnicamente il 4G LTE sarebbe in grado di velocità fino a 300 Mbps, in realtà siamo nell’ordine di 5-12 Mbps in download e 2-5 Mbps in upload, con picchi che scendono tra i 5 e gli 8 Mbps (alcuni test di operatori di telefonia italiani nel 2014 sono arrivati oltre i 30Mbps ma erano solo test in condizioni ottimali).

Come potrà allora il 5G riuscire a superare le velocità attuali?
Immaginiamo le frequenze come un triangolo equilatero con la punta verso il basso, le telecomunicazioni utilizzano le frequenze che si trovano vicino alla punta mentre in alto (nella parte larga) sopra i 24Ghz non vi è praticamente traffico; questo è dovuto al fatto che le onde a quella frequenza hanno lunghezza molto corta e quindi non riescono a superare facilmente gli ostacoli.
La tecnologia 5G utilizzerà tre spettri di frequenza: dai 694-790 Mhz, 3,6 e 3,8 GHz per finire con 26,5 e 27,5 GHz.
Nel primo range di frequenza fanno parte anche le trasmissioni di alcuni canali della televisione digitale ed è uno dei motivi (ve ne sono anche altri come il tipo di compressione del segnale), che si dovranno cambiare i decoder dei televisori non predisposti; questo tipo di frequenza è necessario dato che riesce a passare attraverso gli ostacoli normali (alberi, case, ecc.) pur potendo trasmettere parecchie informazioni. Il secondo gruppo di frequenze offre una buona velocità di connessione ma è più soggetta ad essere bloccata dagli ostacoli. Questo lo possiamo verificare anche nelle nostre case: i router casalinghi utilizzano le frequenze 2,4 e 5Ghz, se utilizzo i 5Ghz avrò una “maggiore” velocità nella comunicazione con il router dato che maggiore la frequenza, maggiore è la velocità con cui trasmette i dati, ma il segnale è “più debole”. L’ultimo gruppo di frequenze hanno una lunghezza d’onda più corta delle precedenti e quindi una frequenza maggiore il che si traduce nella possibilità di trasmettere molto velocemente i dati ma che gli ostacoli sul cammino possono bloccare o diminuire di molto il segnale.
La prima conseguenza dell’utilizzo di queste frequenze è quello che per un utilizzo ottimale del 5G sarà necessario aumentare la copertura delle celle presenti sul territorio e che non sempre sarà possibile utilizzare il 5G al massimo delle sue potenzialità. I più penalizzati saranno, quasi sicuramente, gli utenti che vivono nelle zone rurali nelle quali è più difficile posizionare una grande quantità di ripetitori rispetto che nelle città e, se sono presenti anche alberi, difficilmente sarà possibile avere la copertura sopra i 26 Ghz se si è troppo lontani dai ripetitori dato che l’acqua presente nel tronco e nelle foglie tende ad assorbire le onde più facilmente. È probabilmente la banda che verrà utilizzata maggiormente dagli smartphone nel primo periodo di diffusione del 5G sarà quella compresa tra i 3,6 ed i 3,8 Ghz che offrirà comunque una velocità maggiore del 4,5G.

Il fatto che il 5G utilizzi una frequenza così altra ha destato molte preoccupazioni e leggende metropolitane tra gli internauti tanto da creare veri e propri comitati contro l’utilizzo di questa tecnologia. In realtà non succederà, come sostengono molti, che vi sarà un abbattimento indiscriminato di alberi per dare la possibilità al segnale di arrivare facilmente, ma più probabilmente in futuro nascerà una nuova forma di digital divide tra le zone più o meno servite a causa delle pesanti norme esistenti.
Un'altra delle paure infondate che sono nate è che l’utilizzo delle frequenze così alte possano essere dannose per l’uomo e che le onde del 5G possa cuocerci come i forni a microonde.
In realtà è già da parecchi anni che si parla di eventuali danni che i campi elettromagnetici (in particolare l’uso del cellulare) possono generare nell’uomo ma, malgrado quello che dicono i giudici con una recente sentenza della cassazione, non vi sono prove scientifiche di questo e nessuno scienziato ha potuto portare una dimostrazione che questo sia vero.
È vero che i campi elettromagnetici generano calore (come nei forni a microonde) ma questo tipo di onde hanno lunghezze d'onda che vanno da 1 mm a 30 cm, uno spettro che è sotto quello delle radiazioni infrarosse. Tra le organizzazioni internazionali deputate al monitoraggio della salute delle persone solamente l'Agenzia Internazionale per la Ricerca sul Cancro (IARC) ha classificato i campi elettromagnetici a radiofrequenza (CRF) come cancerogeni di gruppo 2B (nella stessa classifica risultano, ad esempio l’estratto di foglie di Aloe e l’estratto di kava), e considera limitato il grado di correlazione tra l'utilizzo intensivo di telefoni cellulari e lo sviluppo di tumori cerebrali, mentre lo considera non dimostrato scientificamente per tutti gli altri tipi di cancro. Bisogna in fine considerare che la tecnologia 5G si basa su antenne adattative che sono caratterizzate non più da una emissione costante di potenza in tutte le direzioni, ma da una emissione “adattativa” in base al numero di utenze da servire, dalla loro posizione e dal tipo di servizio.
Del 5G si è detto e si dirà molto, ma certamente rappresenta un passo avanti nelle telecomunicazioni soprattutto per l’internet delle cose, ma la preoccupazione vera è che questa nuova tecnologia a causa delle sue limitazioni andrà ad aumentare il gap tecnologico che esiste anziché diminuirlo.
Il Consiglio Europeo, dal canto suo, è convinto che la nuova tecnologia favorirà l'innovazione dei modelli commerciali e dei servizi pubblici ma che in paesi come l’Italia,  con norme molto restrittive sulla radioprotezione, c’è il rischio di rallentare lo sviluppo delle nuove reti ed invita i paesi membri ad adottare le linee guida dell’ICNIRP (International Commission on Non Ionizing Radiation Protection) che rappresentano il massimo riferimento scientifico del settore.

 

BIBLIOGRAFIA
Rif.: Ian Stewart, “Le 17 equazioni che hanno cambiato il modno”, Frontiere, edizione 2019, pp.267-287
Rif.: IARC,
https://monographs.iarc.fr/agents-classified-by-the-iarc/
Rif.: O.M.S. : https://www.who.int/en/news-room/fact-sheets/detail/electromagnetic-fields-and-public-health-mobile-phones
Rif.: Camera dei Deputati Servizio Studi: https://www.camera.it/temiap/documentazione/temi/pdf/1105154.pdf
Rif: Arpa Emilia-Romagna: https://www.arpae.it/dettaglio_generale.asp?id=4149&idlivello=2145

Y2K Ovvero Come Ci Salvammo Dalla Regressione Digitale
Y2K Ovvero Come Ci Salvammo Dalla Regressione Digitale

Il secondo decennio del 21 secolo è appena iniziato e pochi si ricordano che solamente vent’anni fa abbiamo rischiato una piccola regressione digitale.
Questa riflessione nasce da un post che sta girando da qualche giorno sui maggiori social network e programmi di IM che avverte che “Quando scriviamo una data nei documenti, durante quest’anno è necessario scrivere l’intero anno 2020 in questo modo: 31/01/2020 e non 31/01/20 solo perché è possibile per qualcuno modificarlo in 31/01/2000 o 31/01/2019 o qualsiasi altro anno a convenienza. Questo problema si verifica solo quest’anno. Stare molto attenti! Non scrivere o accettare documenti con solo 20. Fate girare questa utile informazione”.
A prescindere dal fatto che in tutti i documenti legali è buona norma (quando non obbligatorio) usare la data in formato esteso, tutti i documenti che prevedono una registrazione prevedono anche una datazione estesa al decennio, fin dai tempi del Millennium Bug.


Ma cosa è stato questo Millennium Bug che tanto ha spaventato alla fine del 1999 il mondo informatico e che è passato senza troppi problemi tanto che oggi c’è chi (i complottisti esistono sempre!) crede che non sia mai stato un reale problema ma un’invenzione atta a far spendere solti alle aziende, agli stati ed ai singoli utenti?
Spieghiamo subito che il termine Bug, in informatica, identifica un errore di programmazione e nel caso del Y2K (come veniva chiamato il Millenium Bug) non si trattava di un errore di programmazione ma di una scelta dettata dalle necessità: all’inizio dell’era informatica e dei personal computer la memoria rappresentava una risorsa così, quando si scrivevano le date, per gli anni si pensò di utilizzare solamente le ultime due cifre che componevano l’anno e non tutte e quattro così 1972 si scriveva 72.
Ma cosa sarebbe successo al cambio di data dalla mezzanotte dal 31 dicembre 1999 al 1º gennaio 2000 nei sistemi di elaborazione dati? Il cambio di millennio avrebbe portato a considerare le date 2000 come 1900 e i problemi che si presentavano erano parecchi, dal valore degli interessi maturati alle date dei biglietti aerei, dal noleggio di automobili ai dati anagrafici dei comuni, dai possibili blocchi delle centrali elettriche alla paura di disastri nucleari.
Per rendere un’idea del panico che venne propagato basta pensare che negli stati uniti vi fu un aumento dell’acquisto di armi e che la stessa unione europea istituì una commissione per l’analisi dei rischi dell Y2K (
https://.cordis.europa.eu/article/id/13568-commissions-analysis-of-the-y2k-problem).

Oggi sappiamo che il problema del Millenium Bug era noto da tempo ad ingegneri e programmatori, molto prima che diventasse un problema mediatico, e che si iniziò a lavorare per evitarne le catastrofiche conseguenze.
La Microsoft con i suoi sistemi operativi Windows95 e Windows98 era preparata e le patch (una porzione di software progettata appositamente per aggiornare o migliorare un determinato programma) che vennero distribuite furono pochissime, non lo stesso per il vecchio window 3.11 che stava in quel periodo terminando la sua vita operativa e che dovette subire parecchi aggiornamenti; i Bios dei computer vennero aggiornati (quando non lo erano già), mentre per i sistemi Linux non si presentarono problemi.

Dire che però tutto filò liscio come l’olio non è esatto, alcuni problemi vi furono e se non diventarono tragedie fu solo perché l’allerta data permise di avere del personale preparato allo scattare della mezzanotte.
Infatti se alcuni problemi come accadde nello United States Naval Observatory che gestisce l’ora ufficiale del paese e sul Web segnò come data il 1 gennaio 1900, o del cliente di un negozio di noleggio video dello stato di New York si trovò sul conto $ 91.250, possono essere considerati fastidiosi in altri casi si rischiò la catastrofe: la centrale nucleare di Onagawa ebbe qualche problema di raffreddamento che scatenò l'allarme 2 minuti dopo mezzanotte, egli Stati Uniti, il sistema di elaborazione dei messaggi della Guardia costiera venne interrotto, alle Hawaii vi furono interruzioni di corrente.
Più tragico fu quanto accadde a Sheffield, nel Regno Unito, dove ci furono valutazioni errate del rischio per la sindrome di Down inviate a 154 donne gravide e vennero effettuati due aborti come risultato diretto del Y2K (dovuto ad un errore di calcolo dell'età della madre), mentre quattro bambini affetti da sindrome di Down sono nati da madri a cui era stato detto che si trovavano nel gruppo a basso rischio ovvero che le possibilità che succeda una cosa del genere era pari a zero.


A vent’anni di distanza possiamo dire che se il Millenium Bug non ha causato danni catastrofici non fu perché il problema non esisteva o era una bufala, ma perché, seguendo il principio di precauzione, sotto spinta del governo americano che aveva riconosciuto che un singolo governo non sarebbe riuscito a intervenire in prima persona ovunque fosse stato necessario e che il rischio potenziale era troppo elevato per poterlo ignorare, aveva coinvolto tutta la società e altri stati tramite un sistema di cooperazione: era impossibile stabilire a priori quali e quanti danni potevano essere arrecati quindi le istituzioni, mentre si preparavano per ogni evenienza, dovevano informare il pubblico sui rischi, e mettere pressione alle aziende affinché iniziassero una politica per evitare i danni del Y2K.
Anche se non tutti i governi investirono nello stesso modo (l’Italia fu il fanalino di coda nell’Eurozona) la comunicazione e l’allarme di massa aveva funzionate e man mano che si procedeva l’aggiornamento dei software e dei Bios, il rischio si riduceva.
Oggi lo stesso tipo di allarme che vent’anni fa venne dato per il Millenium Bug viene dato per il riscaldamento globale ed il cambiamento climatico: dopo che i tecnici del settore (scienziati, fisici, climatologi, ecc.) hanno per devenni avvertito dei rischi intrinsechi derivati dal climate change anche nell’opinione pubblica si sta sviluppando la preoccupazione per un simile futuro.
Ma mentre per l’Y2K le preoccupazioni erano più tangibili ed economicamente capibili quali il pagamento degli interessi sulle azioni, la sicurezza dei sistemi di difesa statali, la sicurezza dei voli o il corretto funzionamento delle centrali nucleari, per il cambiamento climatico i problemi sono più astratti o a più lunga scadenza e lontani dalla reale percezione.
Se si considerasse il problema del cambiamento climatico come fu considerato alla fine del XX secolo il Millenium Bug sarebbe forse più semplice affrontare risolvere il problema.

Foward →
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.