Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Cyber Educazione Al Tempo Del Covid-19
Cyber Educazione Al Tempo Del Covid-19

In Italia si è iniziato a discutere della possibilità di modificare gli ambienti di apprendimento e promuovere l’innovazione digitale nella scuola già nel 2007. Nel 2015 il governo Renzi promosse la riforma della scuola chiamata “La Buona Scuola” della quale il Piano Nazionale Scuola Digitale ne era un pilastro fondamentale.
All’inizio l’idea di “svecchiare” la scuola ed i metodi di insegnamento venne accolta con entusiasmo e l’introduzione di più di 35.000 LIM (Lavagna Interattiva Multimediale) nelle scuole già dal 2008 sembrò il primo passo di un percorso che avrebbe migliorato l’insegnamento.
In realtà, a distanza di più di 10 anni, la situazione non è così rosea come avrebbe dovuto essere nelle previsioni dei vari governi che si sono succeduti.
Il divario tra le varie regioni è ancora molto elevato e solamente il 70% degli istituti è connesso alla rete internet in modalità cablata o wireless ma, la maggior parte delle volte, con una connessione inadatta alla didattica digitale;solamente il 41,9% delle classi è dotata di LIM e il 6,1% di proiettore interattivo.
Per finire l’indagine sull’insegnamento e l’apprendimento OCSE TALIS 2018 in Italia segnalava che il 31% dei dirigenti scolastici riportava che la qualità dell’istruzione nella propria scuola era frenata dall’inadeguatezza della tecnologia digitale per la didattica.
In verità quello che all’apparenza è un mezzo flop della scuola digitale non è altro che il riproporsi del modo di fare tipicamente italiano dove abbiamo uno stato che stanzia fondi per dei programmi, senza però assicurarsi che vi siano le infrastrutture necessarie a supportare i cambiamenti in corso, insegnanti che non sono preparati a sufficienza o sono pieni di preconcetti e studenti che spesso sono più preparati degli insegnanti nell’uso della tecnologia e se ne approfittano.
Se la vita fosse continuata normalmente questi problemi di scuola digitale non avrebbero influenzato particolarmente lo svolgimento delle lezioni, e la scuola e gli studenti avrebbero continuato normalmente, ma nella primavera del 2020 l’arrivo del Covid-19 e la chiusura delle scuole ha portato alla luce l’inadeguatezza e l’impreparazione del sistema digitale scolastico italiano.


Il problema degli insegnanti e delle scuole
La prima impreparazione, è quella degli insegnati, che spesso ignorano gli strumenti disponibili per poter fare lezione online o/e molto più spesso hanno atteggiamenti prevenuti verso le tecnologie, come nel caso dell’Istituto comprensivo Chiodi di Roma dove il 58% degli insegnati della scuola media (in base ad un questionario a loro rivolto dalla dirigenza scolastica) non hanno voluto fare lezione online per non apparire in video. In un’intervista rilasciata al Corriere della Sera il 29 marzo 2020, la preside cerca di difendere gli insegnanti “…Sono insegnanti non giovanissimi, poco abituati alle tecnologie anche se usano il registro elettronico”, e prosegue “…C’è un po’ di diffidenza per il mezzo, temono che le loro lezioni possano venire registrate e usate dagli studenti in modo inappropriato. Forse c’è una presa di posizione, un pregiudizio, il desiderio di conservare le proprie prerogative. Su come fare lezione, il professore è sovrano.
Fortunatamente per gli studenti di quella scuola c’è sempre un 42% di insegnanti che non la vede in questo modo e si è adoperata con l’aiuto della scuola a fare lezione online. Ma quello dell’istituto Romano non è un caso isolato, e molti sono stati gli insegnanti che si sono dimostrati non in grado di utilizzare le tecnologie che la rete ha messo a disposizione per fare lezione.
A fronte di insegnanti che si sono dimostrati non in grado di affrontare una simile situazione vi sono stati anche casi di insegnanti e scuole che, anche se impreparati ad affrontare un simile scenario si sono attivati, spesso in modo autonomo, per poter garantire agli studenti un minimo di lezioni giornaliere utilizzando diversi strumenti. Alcuni hanno, ad esempio, approfittato dell’occasione per mettere online le lezioni che hanno registrato, così l’offerta di formazione su siti quali youtube è cresciuta enormemente, anche a vantaggio di chi non è più studente e vuole approfittare della quarantena per ripassare le proprie conoscenze.
Il Miur, dal canto suo, ha prontamente aperto una pagina sul suo sito dove è possibile reperire informazioni e strumenti utili per l’insegnamento a distanza che, grazie a specifici Protocolli siglati dal Ministero dell'Istruzione e dell'Università, sono disponibili a titolo completamente gratuito.
Malgrado ciò, alla fine, ogni istituto si è organizzato come meglio ha potuto, soprattutto basandosi sulle competenze tecnologiche dei docenti e alla dotazione di dispositivi per connettersi online degli studenti.
Accade così che molti insegnanti, anziché utilizzare piattaforme quali Google Suite for Education, Office 365 Education A1 o Weschoo, che offrono un alto grado di funzionalità e di sicurezza hanno optato per strumenti quali Zoom, con tutti i problemi e le limitazioni che li accompagnano (Zoom, ad esempio, non permette nella versione gratuita sessioni superiori ai 40 minuti e ha riscontrato problemi di sicurezza sui dati personali).


Le famiglie e gli studenti
Gli strumenti che permettono l’insegnamento online, sebbene siano in grado di funzionare sui dispositivi mobili quali smartphone e tablet sono principalmente studiati per poter dare il meglio tramite l’uso di personal computer. Vi sono però molti casi di famiglie dove non è presente un computer, ma lo sono, invece smartphone (alcuni dei quali costano più di un computer di medie prestazioni) e tablet, così questi studenti sono penalizzati.
Nuovamente nell’offerta di lezione online i ragazzi più penalizzati sono quelli che hanno meno accesso alla rete perché vivono in aree rurali o non raggiunte e quegli studenti che vengono da situazioni famigliari e/o economiche più disagiate. In un articolo comparso sul “Il Gazzettino” del 21 marzo Barbara Sardella, dirigente del VI ufficio scolastico di Treviso, fa notare che vi sono molte famiglie straniere e italiane che sono in difficoltà economica che non dispongono né di un pc né di un tablet ma, al massimo, di un telefono che spesso deve essere condiviso con tutti i membri della famiglia. In particolare tramite un questionario fatto tra le famiglie è risultato che in 2 scuole primarie su 3 più del 50% delle famiglie non ha pc e non ha tablet.
Le situazioni sono migliori nei licei o negli istituti tecnici, dove studenti e famiglie hanno almeno un computer in casa.
Se pensiamo che i dati sopra riportati riguardano una provincia di una delle regioni considerate “ricche” in Italia è facile immaginare quale può essere l’impatto sull’istruzione degli studenti in realtà regionali meno fortunate.


Verso una scuola esclusiva e non inclusiva?
L’ articolo 34 della Costituzione Italiana recita: “La scuola è aperta a tutti. L'istruzione inferiore, impartita per almeno otto anni, è obbligatoria e gratuita. I capaci e meritevoli, anche se privi di mezzi, hanno diritto di raggiungere i gradi più alti degli studi”.
Purtroppo al tempo del Covid-19 l’accesso all’istruzione è diventato sempre più elitario ed esclusivo.
La prima causa è, abbiamo visto, l’incapacità (o la voglia) di alcuni insegnanti di adattarsi alle nuove tecnologie, ma il problema più grande riguarda l’impossibilità di chi non ha le disponibilità economiche per poter utilizzare gli strumenti messi a disposizione, ed è un problema che non è da considerarsi confinato solamente nel periodo della quarantena ma, con il passare del tempo, rappresenterà sempre di più una barriera tra l’istruzione di sere A e quella di serie B.
Quello che ha mostrato il Covid-19 riguardo la scuola digitale è che, se non verranno presi provvedimenti per garantire l’accesso agli strumenti per tutti gli studenti, avremo una scuola sempre meno inclusiva e più esclusiva e discriminatoria.
Non c’è dubbio che usciremo da quest’esperienza cambiati come società ma è ora che le istituzioni riflettano sulle scelte che stanno facendo e che iniziano a considerare la realtà: è bello creare una scuola informatizzata e digitale, che fa uso di strumenti moderni per l’insegnamento, ma bisogna GARANTIRE a tutti l’accesso a questi strumenti, mentre negli ultimi anni abbiamo assistito ad un continuo taglio delle risorse che lo stato destinava alla scuola.




Bibliografia:
https://www.miur.gov.it/scuola-digitale
https://miur.gov.it/web/guest/-/scuola-pubblicati-i-risultati-dell-indagine-sull-insegnamento-e-l-apprendimento-ocse-talis-2018
https://www.istruzione.it/scuola_digitale/allegati/Materiali/pnsd-layout-30.10-WEB.pdf

La Rete Internet Italiana Sotto Stress
La Rete Internet Italiana Sotto Stress

Quando pensiamo ad internet siamo portati a pensare a qualcosa di quasi astratto e, se non fosse per le bollette che paghiamo mensilmente, difficilmente ci ricorderemmo che si tratta di una rete comunque fisica, fatta di cavi, ponti radio e tutta una serie di infrastrutture; tutto il traffico generato dai diversi provider e che passa lungo le infrastrutture proprietarie, per poter comunicare tra di loro, si incontrano in nodi che vengono chiamati IXP (Internet Exchange Point). In Italia abbiamo circa 12 Internet Exchange Point, il principale dei quali è il MIX (Milan Internet eXchange) nato nel 2000 con soci 19 tra i principali operatori internet italiani.
Pochi giorni dopo l’entrata in vigore del decreto del 8 marzo 2020 riguardante le misure straordinarie ed urgenti per contrastare l'emergenza epidemiologica da COVID-19 e che, in pratica, faceva stare gli italiani a casa il MIX ha segnalato un aumento costante del traffico internet del 25% fino ad arrivare ai mille miliardi di bit al secondo.
Si potrebbe pensare che questo traffico fuori dalla norma sia dovuto all’aumento delle persone che lavorano da casa, il famoso smart working, tanto richiesto dal governo in questi giorni per chi ne ha le possibilità, o dall’aumento delle lezioni online di scuole e università, ma la realtà è diversa: la maggior parte del traffico è generato da video on demand e giochi online.
Nelle ore lavorative, infatti, l’aumento del traffico è stato solamente del 5-10% rispetto al normale traffico generato a dimostrazione che lo smart working non è un problema per la banda utilizzata, tanto più che gli strumenti che ne fanno uso hanno una codifica dei dati molto elevata e fanno poco uso di banda.
Se ancora vi fossero dei dubbi basta pensare che la piattaforma di gaming online Steam, con oltre 20 milioni di giocatori attivi contemporaneamente, ha superato ogni record, mentre un videogioco “vecchio” di ben 8 anni come Counter-Strike: Global Offensive ha superato il milione giocatori connessi contemporaneamente per la prima volta; mentre l’amministratore delegato di Telecom Italia, Luigi Gubitosi, ha parlato di un aumento di oltre il 70% del traffico generato dai videogiochi tra i quali Fortnite.

È chiaro che la rete internet italiana sia sotto stress, ma è altrettanto vero che fino ad ora ha retto bene alla prova e che probabilmente sarà in grado di reggere al traffico che si genererà in questi giorni, anche se vi saranno dei rallentamenti, ma questo non toglie che nel nostro paese è ancora grande il divario digitale tra tante zone del paese dove non esiste una copertura adeguata e che esclude molte persone dalla possibilità di usufruire dello smart working o di seguire lezioni online: secondo gli ultimi dati dell'Agcom, infatti, il 5% delle famiglie italiane non sono raggiunte dalla banda larga di rete fissa.
Quando l’emergenza Covid-19 sarà passata è auspicabile che molte famiglie valuteranno diversamente l’utilizzo della rete a casa, mentre molte aziende valuteranno come sia possibile affrontare alcune tipologie di lavoro in maniera differente.

5G Il Primo Cambiamento Dopo Il GSM
5G Il Primo Cambiamento Dopo Il GSM

Sebbene il termine 5G stia ad indicare la quinta generazione di sistemi di telefonia mobile non si tratta di un semplice evoluzione del 4G come i vari passaggi da 2G (il famoso GSM) a 3G, 4G per finire con il 4,5G  ma di qualcosa di diverso, come il passaggio tra Etacs che era ancora analogico, al GSM digitale
A metà dell’800 Maxwell elaborò le prime formule matematiche sull’elettromagnetismo che ampliavano e completavano gli studi di Faraday; Le ricerche di Maxell aprirono la porta a tutta una serie di studi di altri scienziati tra i quali vi era il tedesco Heinrich Hertz che nel 1886 costruì un apparecchio in grado di generare onde relativamente lunghe ed un altro che poteva riceverle.
Hertz si dimostrò scettico sull’utilità pratica del suo strumento dichiarando ” È priva di qualunque uso pratico (…) è soltanto un esperimento che prova come il maestro Maxwell avesse ragione…” e a chi insisteva interrogandolo sul suo punto di vista su ciò che poteva accadere come conseguenza della sua scoperta ribadiva :”Nulla presumo”. Per fortuna non tutti la pensavano così e l’esperimento di Hertz portò alla creazione della radio.
Le onde radio sono una radiazione elettromagnetiche e, queste ultime, sono presenti praticamente ovunque in natura: la stessa luce visibile è una forma di radiazione elettromagnetica, come le microonde, i raggi X e le onde radio.

Ma cosa sono le radiazioni elettromagnetiche?
La radiazione elettromagnetica può essere trattata secondo due punti di vista: secondo la teoria ondulatoria e secondo la teoria corpuscolare o quantica. Quella che interessa a noi, in questo momento è la teoria ondulatoria secondo la quale la radiazione elettromagnetica si comporta come un’onda che viaggia alla velocità della luce (c) e può essere descritta in termini della sua lunghezza d’onda λ e della sua frequenza di oscillazione ν dove la lunghezza d’onda è la distanza tra i massimi successivi di un onda, mentre la frequenza (ν) è il numero di cicli completi di un onda che passano per un punto in un secondo e l’unità di misura è chiamata Hertz.
Questi due parametri sono legati dall’equazione: λ = c/ν e da qua ricaviamo che la lunghezza d’onda è inversamente proporzionale alla frequenza ovvero aumenta con il diminuire della frequenza.
Per fare un esempio pratico la luce visibile dall’occhio umano è compresa tra una frequenza che varia dai 400 e 700 nanometri.

Onda elettromagnetica

Le onde radio hanno una lunghezza che varia dai 10cm ai 10Km, all’interno di questa lunghezza le frequenze che vengono utilizzate per la radiocomunicazione (Tv, Radio, Telefonia mobile, ecc.) va dai 3 kHz e 300 GHz. Fino ad ora, per la telefonia mobile, si sono utilizzate le frequenze che vanno dai 900 Mhz dei 2G (GSM) ai 2600 Mhz dei 4G (LTE) e tutti i telefoni cellulari 4G di ultima generazione sono in grado di passare da una frequenza all’altra a seconda della copertura. Questo tipo di frequenze hanno delle lunghezze d’onda che non vengono assorbite facilmente nel loro cammino da ostacoli di medie dimensioni, come le case o gli alberi e possono essere trasmesse a distanza perché (come dimostrato da Marconi) vengono riflesse dagli strati ionizzati dell'atmosfera. Sebbene tecnicamente il 4G LTE sarebbe in grado di velocità fino a 300 Mbps, in realtà siamo nell’ordine di 5-12 Mbps in download e 2-5 Mbps in upload, con picchi che scendono tra i 5 e gli 8 Mbps (alcuni test di operatori di telefonia italiani nel 2014 sono arrivati oltre i 30Mbps ma erano solo test in condizioni ottimali).

Come potrà allora il 5G riuscire a superare le velocità attuali?
Immaginiamo le frequenze come un triangolo equilatero con la punta verso il basso, le telecomunicazioni utilizzano le frequenze che si trovano vicino alla punta mentre in alto (nella parte larga) sopra i 24Ghz non vi è praticamente traffico; questo è dovuto al fatto che le onde a quella frequenza hanno lunghezza molto corta e quindi non riescono a superare facilmente gli ostacoli.
La tecnologia 5G utilizzerà tre spettri di frequenza: dai 694-790 Mhz, 3,6 e 3,8 GHz per finire con 26,5 e 27,5 GHz.
Nel primo range di frequenza fanno parte anche le trasmissioni di alcuni canali della televisione digitale ed è uno dei motivi (ve ne sono anche altri come il tipo di compressione del segnale), che si dovranno cambiare i decoder dei televisori non predisposti; questo tipo di frequenza è necessario dato che riesce a passare attraverso gli ostacoli normali (alberi, case, ecc.) pur potendo trasmettere parecchie informazioni. Il secondo gruppo di frequenze offre una buona velocità di connessione ma è più soggetta ad essere bloccata dagli ostacoli. Questo lo possiamo verificare anche nelle nostre case: i router casalinghi utilizzano le frequenze 2,4 e 5Ghz, se utilizzo i 5Ghz avrò una “maggiore” velocità nella comunicazione con il router dato che maggiore la frequenza, maggiore è la velocità con cui trasmette i dati, ma il segnale è “più debole”. L’ultimo gruppo di frequenze hanno una lunghezza d’onda più corta delle precedenti e quindi una frequenza maggiore il che si traduce nella possibilità di trasmettere molto velocemente i dati ma che gli ostacoli sul cammino possono bloccare o diminuire di molto il segnale.
La prima conseguenza dell’utilizzo di queste frequenze è quello che per un utilizzo ottimale del 5G sarà necessario aumentare la copertura delle celle presenti sul territorio e che non sempre sarà possibile utilizzare il 5G al massimo delle sue potenzialità. I più penalizzati saranno, quasi sicuramente, gli utenti che vivono nelle zone rurali nelle quali è più difficile posizionare una grande quantità di ripetitori rispetto che nelle città e, se sono presenti anche alberi, difficilmente sarà possibile avere la copertura sopra i 26 Ghz se si è troppo lontani dai ripetitori dato che l’acqua presente nel tronco e nelle foglie tende ad assorbire le onde più facilmente. È probabilmente la banda che verrà utilizzata maggiormente dagli smartphone nel primo periodo di diffusione del 5G sarà quella compresa tra i 3,6 ed i 3,8 Ghz che offrirà comunque una velocità maggiore del 4,5G.

Il fatto che il 5G utilizzi una frequenza così altra ha destato molte preoccupazioni e leggende metropolitane tra gli internauti tanto da creare veri e propri comitati contro l’utilizzo di questa tecnologia. In realtà non succederà, come sostengono molti, che vi sarà un abbattimento indiscriminato di alberi per dare la possibilità al segnale di arrivare facilmente, ma più probabilmente in futuro nascerà una nuova forma di digital divide tra le zone più o meno servite a causa delle pesanti norme esistenti.
Un'altra delle paure infondate che sono nate è che l’utilizzo delle frequenze così alte possano essere dannose per l’uomo e che le onde del 5G possa cuocerci come i forni a microonde.
In realtà è già da parecchi anni che si parla di eventuali danni che i campi elettromagnetici (in particolare l’uso del cellulare) possono generare nell’uomo ma, malgrado quello che dicono i giudici con una recente sentenza della cassazione, non vi sono prove scientifiche di questo e nessuno scienziato ha potuto portare una dimostrazione che questo sia vero.
È vero che i campi elettromagnetici generano calore (come nei forni a microonde) ma questo tipo di onde hanno lunghezze d'onda che vanno da 1 mm a 30 cm, uno spettro che è sotto quello delle radiazioni infrarosse. Tra le organizzazioni internazionali deputate al monitoraggio della salute delle persone solamente l'Agenzia Internazionale per la Ricerca sul Cancro (IARC) ha classificato i campi elettromagnetici a radiofrequenza (CRF) come cancerogeni di gruppo 2B (nella stessa classifica risultano, ad esempio l’estratto di foglie di Aloe e l’estratto di kava), e considera limitato il grado di correlazione tra l'utilizzo intensivo di telefoni cellulari e lo sviluppo di tumori cerebrali, mentre lo considera non dimostrato scientificamente per tutti gli altri tipi di cancro. Bisogna in fine considerare che la tecnologia 5G si basa su antenne adattative che sono caratterizzate non più da una emissione costante di potenza in tutte le direzioni, ma da una emissione “adattativa” in base al numero di utenze da servire, dalla loro posizione e dal tipo di servizio.
Del 5G si è detto e si dirà molto, ma certamente rappresenta un passo avanti nelle telecomunicazioni soprattutto per l’internet delle cose, ma la preoccupazione vera è che questa nuova tecnologia a causa delle sue limitazioni andrà ad aumentare il gap tecnologico che esiste anziché diminuirlo.
Il Consiglio Europeo, dal canto suo, è convinto che la nuova tecnologia favorirà l'innovazione dei modelli commerciali e dei servizi pubblici ma che in paesi come l’Italia,  con norme molto restrittive sulla radioprotezione, c’è il rischio di rallentare lo sviluppo delle nuove reti ed invita i paesi membri ad adottare le linee guida dell’ICNIRP (International Commission on Non Ionizing Radiation Protection) che rappresentano il massimo riferimento scientifico del settore.

 

BIBLIOGRAFIA
Rif.: Ian Stewart, “Le 17 equazioni che hanno cambiato il modno”, Frontiere, edizione 2019, pp.267-287
Rif.: IARC,
https://monographs.iarc.fr/agents-classified-by-the-iarc/
Rif.: O.M.S. : https://www.who.int/en/news-room/fact-sheets/detail/electromagnetic-fields-and-public-health-mobile-phones
Rif.: Camera dei Deputati Servizio Studi: https://www.camera.it/temiap/documentazione/temi/pdf/1105154.pdf
Rif: Arpa Emilia-Romagna: https://www.arpae.it/dettaglio_generale.asp?id=4149&idlivello=2145

Y2K Ovvero Come Ci Salvammo Dalla Regressione Digitale
Y2K Ovvero Come Ci Salvammo Dalla Regressione Digitale

Il secondo decennio del 21 secolo è appena iniziato e pochi si ricordano che solamente vent’anni fa abbiamo rischiato una piccola regressione digitale.
Questa riflessione nasce da un post che sta girando da qualche giorno sui maggiori social network e programmi di IM che avverte che “Quando scriviamo una data nei documenti, durante quest’anno è necessario scrivere l’intero anno 2020 in questo modo: 31/01/2020 e non 31/01/20 solo perché è possibile per qualcuno modificarlo in 31/01/2000 o 31/01/2019 o qualsiasi altro anno a convenienza. Questo problema si verifica solo quest’anno. Stare molto attenti! Non scrivere o accettare documenti con solo 20. Fate girare questa utile informazione”.
A prescindere dal fatto che in tutti i documenti legali è buona norma (quando non obbligatorio) usare la data in formato esteso, tutti i documenti che prevedono una registrazione prevedono anche una datazione estesa al decennio, fin dai tempi del Millennium Bug.


Ma cosa è stato questo Millennium Bug che tanto ha spaventato alla fine del 1999 il mondo informatico e che è passato senza troppi problemi tanto che oggi c’è chi (i complottisti esistono sempre!) crede che non sia mai stato un reale problema ma un’invenzione atta a far spendere solti alle aziende, agli stati ed ai singoli utenti?
Spieghiamo subito che il termine Bug, in informatica, identifica un errore di programmazione e nel caso del Y2K (come veniva chiamato il Millenium Bug) non si trattava di un errore di programmazione ma di una scelta dettata dalle necessità: all’inizio dell’era informatica e dei personal computer la memoria rappresentava una risorsa così, quando si scrivevano le date, per gli anni si pensò di utilizzare solamente le ultime due cifre che componevano l’anno e non tutte e quattro così 1972 si scriveva 72.
Ma cosa sarebbe successo al cambio di data dalla mezzanotte dal 31 dicembre 1999 al 1º gennaio 2000 nei sistemi di elaborazione dati? Il cambio di millennio avrebbe portato a considerare le date 2000 come 1900 e i problemi che si presentavano erano parecchi, dal valore degli interessi maturati alle date dei biglietti aerei, dal noleggio di automobili ai dati anagrafici dei comuni, dai possibili blocchi delle centrali elettriche alla paura di disastri nucleari.
Per rendere un’idea del panico che venne propagato basta pensare che negli stati uniti vi fu un aumento dell’acquisto di armi e che la stessa unione europea istituì una commissione per l’analisi dei rischi dell Y2K (
https://.cordis.europa.eu/article/id/13568-commissions-analysis-of-the-y2k-problem).

Oggi sappiamo che il problema del Millenium Bug era noto da tempo ad ingegneri e programmatori, molto prima che diventasse un problema mediatico, e che si iniziò a lavorare per evitarne le catastrofiche conseguenze.
La Microsoft con i suoi sistemi operativi Windows95 e Windows98 era preparata e le patch (una porzione di software progettata appositamente per aggiornare o migliorare un determinato programma) che vennero distribuite furono pochissime, non lo stesso per il vecchio window 3.11 che stava in quel periodo terminando la sua vita operativa e che dovette subire parecchi aggiornamenti; i Bios dei computer vennero aggiornati (quando non lo erano già), mentre per i sistemi Linux non si presentarono problemi.

Dire che però tutto filò liscio come l’olio non è esatto, alcuni problemi vi furono e se non diventarono tragedie fu solo perché l’allerta data permise di avere del personale preparato allo scattare della mezzanotte.
Infatti se alcuni problemi come accadde nello United States Naval Observatory che gestisce l’ora ufficiale del paese e sul Web segnò come data il 1 gennaio 1900, o del cliente di un negozio di noleggio video dello stato di New York si trovò sul conto $ 91.250, possono essere considerati fastidiosi in altri casi si rischiò la catastrofe: la centrale nucleare di Onagawa ebbe qualche problema di raffreddamento che scatenò l'allarme 2 minuti dopo mezzanotte, egli Stati Uniti, il sistema di elaborazione dei messaggi della Guardia costiera venne interrotto, alle Hawaii vi furono interruzioni di corrente.
Più tragico fu quanto accadde a Sheffield, nel Regno Unito, dove ci furono valutazioni errate del rischio per la sindrome di Down inviate a 154 donne gravide e vennero effettuati due aborti come risultato diretto del Y2K (dovuto ad un errore di calcolo dell'età della madre), mentre quattro bambini affetti da sindrome di Down sono nati da madri a cui era stato detto che si trovavano nel gruppo a basso rischio ovvero che le possibilità che succeda una cosa del genere era pari a zero.


A vent’anni di distanza possiamo dire che se il Millenium Bug non ha causato danni catastrofici non fu perché il problema non esisteva o era una bufala, ma perché, seguendo il principio di precauzione, sotto spinta del governo americano che aveva riconosciuto che un singolo governo non sarebbe riuscito a intervenire in prima persona ovunque fosse stato necessario e che il rischio potenziale era troppo elevato per poterlo ignorare, aveva coinvolto tutta la società e altri stati tramite un sistema di cooperazione: era impossibile stabilire a priori quali e quanti danni potevano essere arrecati quindi le istituzioni, mentre si preparavano per ogni evenienza, dovevano informare il pubblico sui rischi, e mettere pressione alle aziende affinché iniziassero una politica per evitare i danni del Y2K.
Anche se non tutti i governi investirono nello stesso modo (l’Italia fu il fanalino di coda nell’Eurozona) la comunicazione e l’allarme di massa aveva funzionate e man mano che si procedeva l’aggiornamento dei software e dei Bios, il rischio si riduceva.
Oggi lo stesso tipo di allarme che vent’anni fa venne dato per il Millenium Bug viene dato per il riscaldamento globale ed il cambiamento climatico: dopo che i tecnici del settore (scienziati, fisici, climatologi, ecc.) hanno per devenni avvertito dei rischi intrinsechi derivati dal climate change anche nell’opinione pubblica si sta sviluppando la preoccupazione per un simile futuro.
Ma mentre per l’Y2K le preoccupazioni erano più tangibili ed economicamente capibili quali il pagamento degli interessi sulle azioni, la sicurezza dei sistemi di difesa statali, la sicurezza dei voli o il corretto funzionamento delle centrali nucleari, per il cambiamento climatico i problemi sono più astratti o a più lunga scadenza e lontani dalla reale percezione.
Se si considerasse il problema del cambiamento climatico come fu considerato alla fine del XX secolo il Millenium Bug sarebbe forse più semplice affrontare risolvere il problema.

Un 2019 Social
Un 2019 Social
Il 2019 è ormai quasi finito ed il 2020 è alle porte, così è interessante tirare le somme di quest’anno online con tutti i suoi pregi e difetti.
Se, infatti, il Global Digital Report ci mostra una crescita di un 10% degli utenti internet online rispetto all’anno precedente (circa 400 milioni di utenti in più), soprattutto dai paesi emergenti e dall’Africa, la maggior parte di essi appaiono utenti principalmente social.
“We are Social” verrebbe quindi da dire ma attenzione perchè ci sono delle novità: Facebook ha visto solo una crescita di circa 8 milioni di nuovi utenti tra luglio e settembre 2019, mentre è in netta crescita l’uso di programmi di instant messaging (che vengono ormai equiparati a social network), dovuti all’uso di dispositivi mobili come principale mezzo per accedere al web. I dati mostrano una crescita del 51% di utilizzatori di smartphone, contro solamente un 44% di utenti che utilizzano il computer, mentre l’uso di tablet è sceso al 3,6% (un calo del 13%).
Malgrado il calo di visitatori Facebook rimane ancora il 3° sito web più visitato al mondo, subito dopo Google e Youtube, pur rimanendo la query di ricerca più richiesta sul motore di ricerca Google e mantiene ancora il primato come social network con il maggior numero di utenti attivi, seguito da Youtube e Watsapp.
Pur essendo leggermente superiore il numero di utenti di sesso maschile che utilizzano il social network di Zuckerberg le donne sembrano più attive avendo un maggior numero di commenti postati, link condivisi e Like assegnati ai post.
Rimanendo sempre in area solamente social network (non considerando i programmi di Istant messaging come tali) il secondo per utenti attivi risulta essere Instagram, sempre di proprietà di Zuckerberg, i cui utilizzatori hanno, per la maggior parte, meno di 30 anni, mentre Twitter mostra un lento ma continuo aumento di utilizzatori dovuto probabilmente al differente tipo di utilizzo e alla censura meno severa, così come Linkedin.
Abbiamo detto che vogliamo considerare i programmi di messaggistica istantanea separatamente dai social network e qua vediamo che a farla da padrone è sempre Facebook che con il suo Messenger ed il suo whatsapp ha il 90% del mercato, mentre i suoi “concorrenti” come Telegram o Viber sono quasi inesistenti o con un target geograficamente limitato, mentre resiste Wechat che in Cina è praticamente il padrone assoluto. Da segnalare che negli ultimi mesi dell’anno TikTok ha avuto un impenno diventando la terza app più scaricata (Whatsapp è solamente la 4°) e che, se confermato il trend, sarà un valido rivale per il 2020 ai programmi di Zuckemberg.

Interessante è anche il modo che hanno gli utenti di utilizzare il web; come abbiamo detto all’inizio di questo articolo la maggior parte degli utenti utilizza i dispositivi mobili e questa metodologia permette di utilizzare i comandi vocali più agevolmente che non su di un PC, così il 50% degli utilizzatori che hanno tra i 16 ed i 34 anni preferiscono usare il riconoscimento vocale per interagire con il web, mentre questa metodologia di utilizzo tende a scendere con l’aumentare dell’età attestandosi ad un 21% per utenti che vanno dai 55 ai 64 anni.
Per quanto riguarda i tempi di utilizzo del web sembra che (a livello mondiale) si passi in media 6 ore al giorno connessi tra App, Navigazione, Messaggistica e mail; per fortuna non tutto il tempo è passato sui social media (come alcuni servizi sui media tradizionali possono portare a pensare) e si va dai soli 36 minuti al giorno per gli utenti di internet in Giappone ad un massimo di 4 ore medie per gli utenti Filippini.
Infatti i dati di GlobalWebIndex mostrano che il 98% degli utenti internet che ha visitato un social network nell’ultimo mese solo l’83% è risultato un utente attivo e non solo fruitore passivo e che molti di loro utilizzano il social network anche per lavoro.

Fino ad ora abbiamo trattato di dati a livello globale, ma come ce la passiamo noi Italiani?
Per prima cosa diciamo che il 92% (54 milioni) degli abitanti del bel paese è connesso ad internet il che fa di noi uno dei paesi europei più digitalmente connessi. Quasi il 60% dei 54 milioni di utenti online è attivo sui social network e poco più della metà di questi accede ai social via dispositivo mobile (Smatphone).
Il tempo che noi passiamo online è anche quello sopra la media che infatti per noi Italiani arrivia a sei ore medie giornaliere mentre tra le query di riceca più utilizzate ci sono le parole Meteo, Facebook, Youtube, Google e Traduttore.
Il campione considerato va dai 16 ai 64 anni, e ci mostra un utilizzo online principalmente per la visione di video (92%), mentre l’utilizzo dei comandi vocali da noi si attesta ad un semplice 30%.
Dal report risulta poi i cittadini del bel paese amano chiacchierare, tanto che risulta l’uso principale del web per i programmi di messaggistica con whatsapp (84% di utilizzatori) che la fa da padrone, seguito da Facebook messenger (54%), mentre Youtube, con il suo 87% di utilizzatori, risulta il social network più seguito incalzato da Facebook (81%) e, a distanza, da Instagram con solo un 55%.
Ma cosa guardano gli Italiani su Youtube? Principalmente musica: tra le ricerche, infatti, la classifica vede in pole position le canzoni, seguite dai film e quindi dal gioco Fortnite.
Solamente 11% degli utilizzatori dei social, poi, dichiarano di utilizzarli anche per lavoro a dimostrazione che in Italia vengono utilizzati come canale panacea di svago.
Su di un piano puramente “sessista” vediamo che, mentre tra facebook e instagram la differenza di utenti di un sesso anzichè l’altro non è molto differente (su Facebook gli uomini superano leggermente le donne e su instagram l’inverso) su Twitter sono gli uomini a farla da padroni con un 68% di utilizzatori.

Nell’era del web 2.0 e della digital revolution sapere come ci comportiamo online, quali App si scaricano o Quali siti si visitano, nonché il metodo di utilizzo della tecnologia, rappresenta uno specchio della società né più né meno delle statistiche ISTAT che ogni anno ci vengono presentate come specchio della società. Queste analisi dei comportamenti dove la differenza tra vita reale e vita virtuale non rappresenta più due elementi separati ma un unico elemento della vita delle persone è una rappresentazione che riguarda tutti noi e non sono più solo uno strumento di statistica per creare marketing online utilizzato dagli operatori del settore.
Un’ultima cosa che appare (e che dovrebbe preoccuparci!) dal report sull’utilizzo del web nel 2019 è la centralizzazione che Facebook sta operando nel settore della messaggistica istantanea e che è quasi a livello di monopolio.

 

Riferimenti: https://datareportal.com/reports/digital-2019-q4-global-digital-statshot
L’Illusione Della Navigazione Anonima
L’Illusione Della Navigazione Anonima
A luglio 2019 Microsoft ha pubblicato un report che elenca le principali aziende che si occupano del tracking dei comportamenti dell’utente sui siti per adulti. Dalla ricerca emerge che Facebook, Google, Oracle e Cloudflare sono tra le aziende più attive in tale settore.
Non deve stupire questo, visto che questi siti utilizzano il tracking dei visitatori e dei naviganti per indirizzare gli advertisment sulle pagine web e per creare il loro introito. Dal report risulta che 93% dei siti analizzati utilizzano script che registrano le abitudini di navigazione degli utenti e, di questi dati, il 74% viene inviato a Google, il 24% ad Oracle, il 10% a Facebook ed il 7% a Cloudflare.
Ma la cosa che dovrebbe preoccupare chi naviga (non solo nei siti per adulti) è che solamente solo una piccola parte di questi cookies (meno del 20%) invierebbe i propri dati sfruttando algoritmi di crittografia e quindi in maniera sicura. Per rendere un’idea di quanto possano essere invasivi i cookies di tracciamento basta pensare che alcuni antivirus e anti-malware li considerano come elementi malevoli!

Sulla base di quanto sopra detto si potrebbe pensare che utilizzare un servizio di VPN oppure di Tor durante la navigazione permetta di risolvere i problemi di privacy e di mantenere l’anonimato ma non è proprio così.
Un recente un articolo che Sven Slootweg (uno stimato sviluppatore indipendente) ha pubblicato sul suo blog personale ha infatti scoperchiato un vaso di cui già i programmatori conoscevano il contenuto ossia che utilizzare una VPN non garantisce l’anonimato.
Spieghiamo subito, per chi non lo sappia, cos’è una VPN.
Se cerchiamo su wikipedia cosa sia una VPN la cosa che la maggior parte degli internauti capisce è che in italiano questo termine è la traduzione di rete privata virtuale ma del resto, probabilmente, capirebbe assai poco. Se si cerca su youtube o su internet si è portati a identificare le VPN con la navigazione anonima e con la possibilità di fare quello che si vuole online senza il pericolo di essere scoperti.
In realtà, come dice Slootweg la VPN non è altro che un server proxy glorificato dalla maggior parte degli utilizzatori di internet.
Quando un utente “naviga” su di un sito web si collega al proxy (un computer remoto) e gli invia le richieste, il proxy si collega al server ospitante il sito web e gli inoltra la richiesta dell’ utente; una volta ricevuta la risposta, il proxy la manda al client richiedente.
Solitamente l’utilità di un proxy consiste nel fatto che velocizza la navigazione in quanto i siti visitati recentemente da qualunque utente di quella rete, vengono memorizzati nel proxy che in questo modo evita di scaricarli nuovamente e possono essere ricevuti alla massima velocità permessa dalla propria connessione.
Tramite un Poxy è anche possibile, per i provider internet o per le autorità giudiziarie dei vari paesi, bloccare l’accesso a taluni siti web o applicazioni online.
In pratica un proxy non è altro che un ponte tra l’utente e il sito web interessato.
Visto che i proxy, nella maggior parte dei casi, sono gestiti direttamente dai provider di accesso internet questi memorizzano la navigazione di un utente associando il suo indirizzo ip ( indirizzo che viene assegnato ad una macchina quando si collega alla rete internet) e gli indirizzi che visita.
Una VPN lavora, in un certo senso, allo stesso modo: agisce come un tunnel tra due diverse reti quella dell’utente e quella che intende raggiungere (per questo le VPN sono spesso utilizzate nel darkweb, dato che permettono di raggiungere anche reti non raggiungibili dal normali canali), bypassando il fornitore di accesso ad internet di un utente.
Il problema che anche i server delle reti VPN memorizzano in un log la navigazione che viene fatta da un utente, se non altro per potersi eventualmente tutelare da eventuali azioni giudiziarie, ma non c’è nessuna certezza di quali utilizzi il gestore del server VPN faccia dei nostri log, se li vende ad agenzie di advertisment, o se utilizzi la connessione di un utente alla VPN per scopi non legali.
Ogni utente che utilizza una VPN è infatti collegato ai loro servizi tramite il proprio indirizzo IP e se qualcuno vuole intercettare la connessione basta che lo faccia un qualsiasi altro punto, come quando si collega o si scollega alla VPN.
Inoltre, sebbene la connessione ad una VPN sia criptata non sempre lo è il trasferimento di informazioni con un sito, come nel caso dell’invio di dati dai form, non tutti i siti web hanno la criptazione dei dati (vedere l’articolo https://www.filoweb.it/magazine/31-da-HTTP-a-HTTPS- .
Per finire per i moderni metodi di tracciamento l’indirizzo ip dell’utente sono meno rilevanti che nel passato e le grandi compagnie di marketing online utilizzano altre metriche per tracciare il profilo di chi utilizza un servizio e la sua identità.

A questo punto viene da chiedersi per quale motivo esistono le VPN se sono così poco sicure.
Bisogna prima di tutto considerare che le VPN sono nate per scopi aziendali, per dare modo ai dipendenti di accedere alle infrastrutture di un network privato da qualunque parte del mondo essi si trovino, la possibilità di essere utilizzate in ambito privato per dare l’idea di una navigazione anonima ha dato il via ad un business. La maggior parte dei servizi VPN disponibili sono a pagamento mentre quelli gratuiti sono pochi e consentono una limitata lista di utenti connessi contemporaneamente.
Si può scegliere di utilizzare una rete VPN nel caso ci si trovi ad utilizzare quella che viene definita connessione non sicura, come nel caso di aeroporti o stazioni o comunque connessioni wi-fi aperte, ma se il nostro intento è quello di navigare nel più completo anonimato allora rimane solo una sicurezza emotiva.
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.