Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Magazine

Paura AI?
Paura AI?

Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.


Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “
È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità di calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono risultati facilmente superabili, per il secondo, fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione), le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma  usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.


Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?  
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.


Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato)  sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM. Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.


Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che,  se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.


Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.

 


CONSIGLI PER GLI ACQUISTI DI UN VPN


CONSIGLI PER L'ACQUISTO DI LIBRI SU CHATGPT E INTELLIGENZA ARTIFICIALE

PER ALTRI LIBRI INTERESSANTI CLICCAMI



 

1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.

 


BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)

C'è Pericolo Per Internet In Europa?
C'è Pericolo Per Internet In Europa?

Tutti sappiamo, quasi sempre per sentito dire, che la rete internet è nata come progetto militare per garantire la comunicazione sempre e comunque (anche in caso di olocausto nucleare) tra i vari centri di comando. Questa consapevolezza è talmente radicata che siamo convinti che l’infrastruttura internet sia sempre disponibile (escluso i guasti che possono capitare sulla linea ma questo è un altro discorso).
Come stanno realmente le cose?


Internet non è il web.
Per prima cosa dobbiamo chiarire la differenza che c’è tra la rete internet ed il “web”.
La rete internet è un infrastruttura dove viaggiano pacchetti di dati tra vari nodi di computer che si scambiano informazioni tramite delle regole che si chiamano protocolli. I pacchetti dati che vengono scambiati dai vari computer tramite dei “nodi” vengono interpretati da vari programmi (whatsapp, programmi di videoconferenza, programmi FTP, newsgroup, posta elettronica, ecc.) presenti sui singoli dispositivi che provvedono ad interpretarli ed elaborarli. Internet è, insomma, una specie di ferrovia che offre il trasporto di informazioni che attraverso delle stazioni (i server) distribuisce queste informazioni alle singole case presenti in una “citta”, ovvero i singoli computer collegati.
Il web è, invece, solamente uno dei servizi internet che permette il trasferimento e la visualizzazione dei dati, sotto forma di ipertesto. La prima pagina web è stata realizzata da Tim Berners-Lee nel 1991 presso il CERN. Il web ha permesso di trasformare quello che viaggiava su internet da una serie di informazioni statiche ad un insieme di documenti correlati e facilmente consultabili.


Come nasce Internet.
In piena guerra fredda, nel 1958 la difesa degli Usa fondò ARPA, acronimo di Advanced Research Projects Agency  e che oggi si chiama DARPA (D sta per Defence) con lo scopo di trovare soluzioni tecnologiche innovative ad un certo numero di problemi, principalmente militari. Tra i vari problemi che ARPA si trovò ad affrontare vi era quello creare un sistema di telecomunicazioni sicuro, pratico e robusto, in grado di garantire lo scambi di informazione tra i vari comandi e sistemi di risposta in caso di attacco nucleare sempre e comunque.
Lo scambio di dati tra i vari computer, fino ad allora, avveniva tramite un collegamento diretto tra i due, solitamente tramite linea telefonica. Questo tipo di scambio dati, oltre che essere poco sicuro, presentava delle debolezze intrinseche: la velocità era limitata e condizionata dal computer più lento e la connessione era limitata a due utenti che venivano collegati direttamente. Ad aumentare la criticità di questo modo di scambiare informazioni, inoltre, vi era il fatto che tutti i dati passavano da un nodo centrale, incaricato di questa operazione di switching, creando un punto critico in caso di guasto o di attacco.
La soluzione fu trovata “imbustando” i dati in una serie di pacchetti che, come in una busta postale, contengono l’indirizzo del mittente, del destinatario e l’informazione che si vuole trasmettere. In questo modo era possibile per più utenti utilizzare una stessa linea e, in caso di guasto o inoperatività di un nodo, le informazioni potevano essere deviate su di un’altra strada, dato che si sapeva “l’indirizzo” del destinatario. L’unico problema che esisteva (ma all’epoca non era considerato un problema visto il numero esiguo di computer presenti) era che bisognava, appunto, conoscere l’indirizzo del destinatario.
Il progetto prese ufficialmente vita nel 1958 quando  Steve Crocker, Steve Carr e Jeff Rulifson, in un documento del 7 aprile presentarono l’idea di una rete che prese il nome di ARPANET. Inizialmente furono solo quattro i computer collegati ma in breve tempo il loro numero aumentò includendo non solo enti della difesa USA ma anche università e centri di ricerca.
Per facilitare lo scambio di dati tra computer differenti venne implementato un protocollo apposito il TCP/IP che è tutt’ora utilizzato. A seguire vennero inventate nel 1971 le e-mail, mentre l’anno seguente vide la nascita di un metodo per controllare i computer in remoto che prese il nome di telnet e per finire un protocollo per il trasferimento dei file che si chiama FTP. Tutti questi protocolli che sono tutt’ora esistenti e sono una parte fondamentale di quello che chiamiamo “Internet”.
Anche se negli anni i protocolli si sono evoluti, ne sono nati di nuovi e altri si sono modificati il principio di funzionamento rimane lo stesso degli anni ’60 e oggi sono milioni i computer e i dispositivi interconnessi in tutto il mondo.


C’è pericolo per l’infrastruttura mondiale?
Attualmente abbiamo un mondo sempre più interconnesso. Quando consultiamo un sito internet, mandiamo un messaggio tramite whatsapp  o messenger, pubblichiamo una nostra foto su Facebook piuttosto che una storia su Instagram o facciamo un bonifico bancario utilizziamo uno dei tanti servizi che la rete internet ci mette a disposizione.
Spesso i server che utiliziamo sono situati in altri continenti o altre nazioni: le webfarm (luoghi dove sono collocati una serie di Server a temperatura controllata e in sicurezza) che contengono i siti internet non sempre sono in Italia o in Europa anche se il dominio che consultiamo è di tipo .it o .eu ed appartiene ad una società italiana.
A collegare questi server a casa nostra provvede una fitta rete di cavi ottici sottomarini (la mappa è consultabile sul sito www.submarinecablemap.com) che trasportano il 97% del traffico internet mondiale. Sicuramente, a questo punto della lettura, viene da chiedersi perché si preferisca utilizzare i cavi marini anziché i satelliti, come nel caso della costellazione Starlink di Eolon Musk?
Il primo motivo è il costo della tecnologia della fibra ottica che è molto più vantaggiosa della messa in orbita e del mantenimento di una rete di satelliti.
Dobbiamo poi considerare la velocità: satelliti per la trasmissione dati sono, per la maggior parte, situati in orbite geostazionarie il che vuol dire che orbitano su un punto fisso sopra la terra (come i satelliti GPS) ad un’altezza di circa 36.000 km. Ad una tale distanza un bit, che viaggia alla velocità della luce, per percorrere una simile distanza impiega ¼ di secondo e questo tempo di latenza nella comunicazione può, in certi casi, diventare critico.
Dobbiamo,  infine, considerare che se tutte le comunicazioni della rete internet dovessero passare tramite satelliti probabilmente questi ultimi avrebbero difficoltà a gestire una mole di traffico eccessiva: un conto è dover gestire 10.000/30.000 utenti collegati contemporaneamente un altro doverne gestire 1.000.000.
Queste autostrade digitali prendono il nome di dorsali, e una delle più importanti passa al largo delle coste irlandesi dove transitano oltre 10 trilioni di dollari al giorno di transazioni finanziarie.
Non stupisce che, dopo il sabotaggio del gasdotto Nord Stream, stia nascendo la preoccupazione di un possibile attentato ai cavi sottomarini da parte dei Governi Europei e della Nato: gli alti funzionari della Marina degli Stati Uniti hanno avvertito per molti anni delle conseguenze catastrofiche di un possibile attacco da parte delle navi russe su cavi Internet.
In realtà, a parte un eventuale aumentare della tensione geopolitica, un reale pericolo non esiste, o meglio, le conseguenze non sarebbero così gravi come certi giornali annunciano: già adesso, ogni giorno, si verificano guasti lungo i cavi ma gli utenti non se ne accorgono.
Abbiamo visto all’inizio che la struttura internet è nata con lo scopo di evitare che un conflitto impedisca la possibilità di scambiare informazioni tra i vari posti di comando. Se un cavo viene tagliato, o anche la maggior parte dei cavi di una dorsale, semplicemente i pacchetti dati verrebbero reindirizzati tramite un’altra strada per raggiungere il destinatario a scapito, ovviamente, della velocità di interscambio dei dati. E se anche un eventuale stato belligerante riuscisse a tagliare tutti i cavi Atlantici si potrebbe sempre reindirizzare il traffico sulla dorsale dell’Oceano Pacifico o via satellite, anche se in quest’ultimo caso bisognerebbe dare la precedenza ai servizi di primaria importanza e si avrebbe un rallentamento generale.
In questo periodo di guerra i propagandisti russi (come Viktor Murakhovsky) hanno dichiarato che la Russia potrebbe danneggiare seriamente le comunicazioni in Europa e ciò avverrebbe tramite l’utilizzo di sottomarini speciali come il Belgorod ma, come abbiamo visto, tutto questo rimane accantonato nella pura propaganda di guerra.



Suggerimenti per l'acquisto

Pwn2Own 2022: cosa emerge e cosa non emerge
Pwn2Own 2022: cosa emerge e cosa non emerge

Pwn2Own è una delle competizioni di hakeraggio più famose al mondo che quest’anno ha visto assegnare premi per 1.155.000 dollari su 25 vulnerabilità zero-day1 che sono state trovate


Cos’è Pwn2Own
Pwn2Own è un concorso di pirateria informatica che si tiene ogni anno alla conferenza sulla sicurezza di CanSecWest. La prima edizione è avvenuta nel 2007 a Vancuver e da allora, con l’eccezione del periodo della pandemia di Covid-19, ha aiutato le aziende del settore IT che vi partecipano a scoprire e correggere gravi falle nei loro software.
La competizione nasce su iniziativa di Dragos Ruiu frustrato dalla mancanza di disposte da parte di Apple alle sue domande sulla sicurezza nel mese dei bug di Apple e dei bug del kernel, nonché sulla banalizzazione che quest’ultima faceva della sicurezza integrata sui sistemi Windows in alcuni spot pubblicitari televisivi (andati in onda negli Stati Uniti e in Canada). All’epoca tra gli utenti Mac era  in diffusa (e tra molti utenti lo è ancora) che la sicurezza i prodotti Apple e OSX fossero più sicuri della controparte Microsoft.
Così circa tre settimane prima di CanSecWest ( la più importante conferenza al mondo incentrata sulla sicurezza digitale applicata) Ruiu annunciò il concorso Pwn2Own ai ricercatori sulla sicurezza della mailing list DailyDave. All’epoca non c’era un premio in denaro ma il vincitore poteva portarsi via il dispositivo che riusciva ad Hackerare (in quel caso si trattava di 2 MacBook Pro) e da qua il nome che è la combinazione delle parole "pwn", che vuol dire Hackerare, 2 che in inglese si legge Tow (due) ma si intende anche come la parola “to” nei messaggi delle chat, che davanti al verbo “Own” vuol dire possedere.
In effetti la tradizione di diventare i proprietari del dispositivo che viene hackerato è rimasta ancora adesso nella competizione affianco ai premi in denaro.
Negli anni la competizione si è ampliata sia per quanti riguarda i premi in denaro che per quanto riguarda le regole e gli obbiettivi. Già l’anno successivo si invitava gli utenti a leggere un file di testo contenuto computer con diversi sistemi operativi (Windows, Mac OSX, Lunux Ubuntu), prima cercando di hakerare solamente il computer e successivamente potendo passare anche attraverso i Browser. Anche in questo caso il primo a cadere fu il Mac attraverso un bug di Safari.


Cos’è successo quest’anno?
Quest’anno il premio per chi superava le “sfide” è arrivato a superare il 1.000.000 di dollari suddiviso in 25 differenti vulnerabilità in un periodo di 3 giorni. Il primo giorno, ha visto cadere Microsoft Teams, Oracle VirtualBox, Mozilla Firefox, Microsoft Windows 11, Apple Safari (unico prodotto della casa di Cupertino ad essere presente alla competizione), e Ubuntu Desktop.
Il secondo giorno, invece, è toccato a Tesla cadere: i ricercatori della compagnia francese Synaktiv sfruttando un bug del sistema di Tesla hanno avuto accesso ad alcuni comandi della macchina prodotta da Eolon Musk. Sempre nel secondo giorno sono invece falliti altri tentativi di avere accesso al sistema operativo Windows 11 e altri due tentativi di accedere al sistema di Tesla. Il terzo giorno, invece, i ricercatori sono riusciti a penetrare per ben tre volte nel sistema operativo Windows 11, senza fallire.
Ma superare le prove non è sufficiente: per acquisire i punti bisogna non è sufficiente l’hackerare il dispositivo o il programma interessato ma anche il modo nel quale lo si fa considerando la capacità operativa e il bug utilizzato nonché la possibilità di poter mostrare il metodo utilizzato.
Alla fine dei tre giorni l’azienda e che è stata proclamata Master of PWN dagli organizzatori del torneo, per aver totalizzato il maggior numero di punti, è la "Star Labs" di Singapore.


Cosa abbiamo imparato?
La prima cosa da notare è che quest’anno non solo erano presenti programmi di “comunication” e collaborazione online come Teams e Zoom ma attaccare questo tipo di programmi aveva un maggior peso nella competizione e portava i contendenti ad avere premi più sostanziosi.
Nulla da stupirsi visto che negli ultimi due anni queste applicazioni hanno avuto uno sviluppo ed un utilizzo sempre più rilevante nella nostra società, ma una riflessione si rende necessaria: se fino a qualche anno fa quando si pensava a vulnerabilità si pensava a debolezze del sistema operativo piuttosto che a come si utilizzava internet e veniva spesso consigliato di prestare attenzione ai siti che si visitano, ai programmi che si usano o i scaricano (che avessero delle fonti attendibili e non fossero copiati o piratatti), eccetera, quest’anno ci si accorge che queste precauzioni possono non essere più sufficienti.
Quando ci si unisce ad una conversazione in Teams piuttosto che su Zoom si pensa che a questo punto si sia al sicuro in quanto siamo collegati con persone che conosciamo. Nulla di più sbagliato. Le falle riscontrate hanno dimostrato che non è più sufficiente stare attenti ma è anche necessario disporre di protezioni quali antivirus e antimalware nonché, se si è utenti particolarmente avventurosi, dotarsi anche di una VPN2.
Sempre riguardo il fatto che bisogna sempre essere protetti è da considerare, inoltre, che i bug rilevati sui Browser a volte permettevano l’accesso a livello di Super User3 alla macchina senza necessità di nessuna conferma da parte dell’utente; questo privilege escalation4 porta alla possibilità del malintenzionato di poter eseguire codici RCE5 (Remote Code Execution) sulla macchina attaccata.
Concludendo possiamo dire che ben vengano concorsi dove si scontrano Hacker etici che permettono alle aziende di migliorare i loro prodotti e a noi di essere più sicuri. Per questo lascia sorpresi che l’unico prodotto Apple che era da “forzare” fosse stato il browser Safari la scoperta del cui bug ha portato a Paul Mandred la cifra di 50.000 dollari.
Rimane poi un ultimo punto oscuro da considerare ovvero che magari alcuni dei Bug siano già stati scoperti dai concorrenti ma che aspettino il Pwn2Own o un concorso simile per renderli pubblici e incassare così più soldi di quanti ne riceverebbero se li comunicassero direttamente alle aziende interessate.
Speriamo che così non sia!

 

 

 

1 Una vulnerabilità zero-day è una qualunque vulnerabilità di un software non nota ai suoi sviluppatori o da essi conosciuta ma non gestita.
2 VPN è l'acronimo di Virtual Private Network, ossia “rete privata virtuale”, un servizio che protegge la connessione internet e la privacy online. Crea un percorso cifrato per i dati, nasconde l’indirizzo IP e consente di utilizzare gli hotspot Wi-Fi pubblici in modo sicuro.
3 Con il termine Superuser si indica un account utente speciale utilizzato per l'amministrazione del sistema. A seconda del sistema operativo (OS), il nome effettivo di questo account potrebbe essere root, amministratore, amministratore o supervisore.
4 Privilege escalation è un tipo di attacco di rete utilizzato per ottenere l'accesso non autorizzato ai sistemi all'interno di un perimetro di sicurezza.
5 RCE è un attacco informatico in base al quale un utente malintenzionato può eseguire comandi in remoto sul dispositivo informatico di qualcun altro. Le esecuzioni di codice remoto (RCE) di solito si verificano a causa di malware dannoso scaricato dall'host e possono verificarsi indipendentemente dalla posizione geografica del dispositivo.

Voglia Di Vintage: Il Ritorno Del Vecchio C64
Voglia Di Vintage: Il Ritorno Del Vecchio C64

È dagli anni ’90 che negli appassionati di computer è nata la voglia di retrò computer e retrò games. All’inizio erano solamente degli emulatori, prima il mitico MAME e poi di vari sistemi operativi che davano (e danno ancora) la possibilità di provare i computer a 8 o 16 bit come il Commodore64, l’MSX, il mitico ZX Spectrum di Sir Clive Marles Sinclair, il Mac Os, l’Amiga e molti altri. Oggi stanno uscendo anche emulazioni hardware come il C64 mini o l’Amiga 500 mini e presto un PC stile C64 con software nuovo e doppio sistema operativo.

Il primo emulatore, un hardware con una rom di 256Kb e non software, inizia il suo sviluppo il 12 dicembre del  1990 e prende il nome di Family Computer Emulator: una macchina ad opera di Haruhisa Udagawa che uguagliava il NES1 e che, nella sua semplicità e limitatezza (non poteva ad esempio riprodurre suoni, non supportava il microfono della Nintendo,  la CPU risultava molto lenta ed i file delle ROM Cartrige dovevano essere scaricati attraverso un processo complicato), permetteva di far girare alcuni storici giochi tipici della console Nintendo come  Donkey Kong, Space Invaders, Mario Bros. Il primo emulatore software di un computer, invece, fu quello - neanche a dirlo- del mitico Commodore 64, che iniziò ad apparire nelle BBS intorno al 1990; anche questo, che girava su macchine intel  permetteva soprattutto di far girare i videogiochi.
A metà degli anni ’90 esattamente tra il 1994 ed il 1995 iniziarono ad uscire anche i primi emulatori di giochi arcade2 autonomi, cioè in grado di emulare solo un singolo gioco o un solo tipo di console, via software. All’inizio giochi come, Ghosts'n Goblins, Bombjack, Asteroids, Mr. Do! Pac-Man, Lady Bug, iniziarono a tornare sui monitor dei computer girando ognuno su un suo software.
Nel 1995, quando l’Activision rilasciò "Atari 2600 Action Pack" per Windows 3.1, comparve il primo emulatore conosciuto di una console. Un paio d’anni dopo, nel 1997, uscì il progetto MAME (acronimo di Multiple Arcade Machine Emulator): un emulatore in grado di far funzionare pressoché tutti i vecchi tipi di giochi arcade tramite le proprie Rom3. Il suo funzionamento è molto semplice, basta copiare il file in formato zip contenente il gioco che si vuole nella directory denominata “ROMS” presente nella root del progamma e questo viene riconosciuto ed eseguito. Indipendentemente dal produttore che poteva essere Acclaim, Namco, Atari, Sega, Konami, o qualunque altro, il gioco funziona. Il progetto nasceva con l’intenzione di documentare il funzionamento dei videogiochi Coin-Up3 e preservare la storia e la memoria delle rarità.
Sebbene questi software fossero diventati diletto principale di soli Nerd, negli ultimi anni si è assistito ad un mercato di retrò computer sempre più in espansione dato che a molti utenti non era più sufficiente un semplice emulatore software ma erano alla ricerca dell’esperienza che avevano vissuto quando, da bambini, muovevano i primi passi nel mondo dei computer, aspettando anche 10 minuti (che sembravano ore!) il caricamento di un gioco o di un programma da un’unità a nastro. Vengono così tirati fuori dalle cantine i vecchi computer a 8bit o a 16bit che hanno fatto la storia, che non sono i vecchi pc IBM compatibili o i Mac II, ma soprattutto MSX, ZX Spectrum, e tanti, tantissimi Commodore che vengono riesumati, restaurati e usati o rivenduti.

Ad oggi un Commodor 64 “Biscottone” funzionante e in buone condizioni ha un prezzo base di 120€ che possono salire in base al fatto che abbia o meno la scatola originale, gli accessori o il Case non usurato dal tempo.
Ed è proprio l’azienda fondata da Jack Tramiel nel 1954 e chiusa nel 1994 a rappresentare (più dei prodotti di Apple o altre blasonate industrie) l’oggetto di rimpianto di tanti appassionati di informatica. Approfittando della nascente nostalgia di tanti ultraquarantenni per i computer della loro infanzia nel 2018 un’azienda londinese, la Retro Games Ltd, mette in commercio il Commodore 64 mini: una console che riproduce in scala (le dimensioni sono 20 x 10 x 3,5 cm contro i 40.4 x 21.6 x 7.5 cm dell’originale) la forma del mitico computer degli anni 80 e ne emula via hardware i videogiochi. A corredo della piccola console veniva fornito un joystick simile a quelli a microswitch utilizzati sui computer a 8 bit, che permette di far rivivere l’esperienza di un vecchio C64 ad prezzo sotto i 100€.
A seguito del successo del Commodore64 mini la stessa azienda nel marzo di quest’anno decide di far usciere una nuova console che emula, sempre via hardware, un altro dei computer storici di Tremiel: il 25 marzo 2022 esce l’Amiga 500 Mini, versione sempre in scala dell’omonimo computer a 16/32 bit (per approfondire la storia dell’Amiga invito a rileggere l’articolo: 30 Anni Fa Una Piccola Rivoluzione) accompagnata da un mouse che è la ricostruzione, per fortuna non in scala, dell’originale a due bottoni e da 25 videogiochi preinstallati. Anche in questo caso stiamo parlando solamente di una console di emulazione di videogiochi.
Ma la sorpresa più bella, per chi ha nostalgia dei vecchi computer e non può rinunciare alla modernità è in arrivo - anche questa - quest’anno. Dopo il fallimento del 1994 e dopo che la Commodore venne messa in liquidazione i suoi marchi ebbero tutto un susseguirsi di cambi di proprietà fino ad essere acquistati nel 2015 da una piccola holding italiana, con sede a Londra, che iniziò a produrre una serie di smartphone denominati Pet, Leo e Nus con il logo Commodore. L'azienda chiamata Commodore Business Machines Ltd. dopo una battaglia legale riuscì ad avere il diritto di utilizzare il logo originale e quest’anno ha annunciato l’uscita di un computer chiamato Commodore64GK.
La macchina, da quello che si è saputo fino ad ora, avrà un cabinet che ricorda per colori e forma dei tasti il mitico computer denominato “Biscottone” a causa della forma rotondeggiante ed il colore marrone; la tastiera, che conterrà tutta la circuiteria, sarà meccanica come l’originale ma non mancheranno Wi-fi, Usb e e Bluethoot per rendere il computer moderno. Allo stesso modo nuovo sarà il sistema operativo, anzi i sistemi operativi, visto che ne avrà ben due distinti: Windows11 e Chrome OS e l’utente potrà decidere in avvio quale dei due far partire.
Attenzione non si parla di dual boot ma di due sistemi separati che hanno due diverse CPU e diverso hardware mentre solo parte dei componenti saranno condivisi, un po’ come succedeva con l’Amiga 2000 e la scheda Bridgeboard.

Difficilmente chi non ha vissuto quegli anni potrà capire l’emozione che hanno dato i vecchi computer e per un appassionato, quando si ha la possibilità di poter usarne uno, è come guidare un’auto d’epoca. Non deve sorprendere quindi che il 2022 sia un anno che due distinte aziende hanno deciso di utilizzare per lanciare due diverse macchine che ricordano la stessa ditta storica; in particolare, con la scusa di voler celebrale i 40 anni dall’uscita del primo C64 “biscottone”, l’azienda Commodore International Ltd. ha deciso di fare un’operazione commerciale azzardata ma anche mirata. Il C64GK non sarà certo un computer per tutti visto che per giocare ci sono computer migliori e per l’uso in ufficio potrebbe rivelarsi scomodo, ma di certo il target di nostalgici non mancherà certo. Il prezzo sarà sicuramente impegnativo ma conosco già molte persone che attendono di poter mettere le dita sulla tastiera meccanica marrone.

 


1 Il Nintendo Entertainment System (NES), noto in Giappone con il nome di Famicom è stata una console per videogiochi a 8-bit prodotta da Nintendo tra il 1983 e il 1995.
2Un videogioco arcade (anche coin-op, abbreviazione di coin-operated, in italiano macchina a gettoni, sebbene il termine si possa riferire anche a giochi non necessariamente video, come i flipper) è un videogioco che si gioca in una postazione pubblica apposita a gettoni o a monete, costituita fisicamente da una macchina posta all'interno di un cabinato. Questo tipo di macchina si diffuse nella seconda metà del XX secolo  nelle sale giochi, nei bar o in altri luoghi pubblici analoghi; le sale giochi spesso raccoglievano solo, o soprattutto, videogiochi arcade. Gli arcade rappresentarono la prima generazione di videogiochi di largo consumo, e il primo contatto del pubblico con questa nuova forma di intrattenimento.
3 ROM Sigla di read only memory, particolare memoria non volatile (cioè capace di conservare i dati presenti anche in assenza di alimentazione) presente nei calcolatori elettronici; i dati sono inseriti durante la sua realizzazione, non potendo più essere modificati


NOTE BIBLIOGRAFICHE
8-BIT GENERATION: THE COMMODORE WARS. Film documentario del 2016 di Tomaso Walliser con Chuck Peddle, Jack Tramiel, Steve Wozniak

Cyberwar
Cyberwar

Anche se da un punto di vista puramente strategico il recente conflitto scoppiato in Ucraina sembra riportare indietro la storia militare di quasi 80 anni dove è la fanteria ad avere il peso maggiore, abbiamo visto in questo conflitto per la prima volta l’utilizzo della “Cyberwar” come arma; come un bombardamento può mettere fuori uso le infrastrutture di un paese allo stesso modo un cyber-attacco può paralizzare aeroporti, treni e comunicazioni.

Il 24 febbraio l’aggressione della Russia all’Ucraina era stato anticipato da un attacco tramite un malware che aveva cancellato i computer di una banca ucraina e di un'agenzia governativa. Ma gli attacchi informatici alle strutture amministrative ed economiche ucraine erano iniziati già prima dell'invasione militare: il governo di Zelensky aveva segnalato un cyber-attacco il 14 gennaio che aveva preso di mira i siti web del ministero degli esteri del paese, il gabinetto dei ministri e i consigli della difesa. Un mese dopo i responsabili della cybersecurity ucraine hanno segnalato un attacco DDoS1 contro due delle maggiori banche del paese, PrivatBank e Oschadbank.

Affianco agli attacchi “ufficiali” portati avanti da entrambi i contendenti (anche l’Ucraina tramite una trentina di  gruppi di Hacker porta avanti una sua guerra informatica alla Russia) si sono schierati gruppi di hacktivisti2 come Anonymous che, il 26 febbraio ha dichiarato di essere sceso in guerra contro la Russia, creano danni e disservizi come l’Hackeraggio della TV russa con la trasmissione di immagini della guerra o il furto di 35 mila file della banca centrale russa  contenente anche contratti segreti; un'azione che ha bloccato il traffico ferroviario in Bielorussia, nazione che appoggia esplicitamente la Russia sia logisticamente che militarmente, è stata rivendicata dai un gruppo hacker.
Affianco a questi attacchi che creano disservizi gli attacchi informatici hanno anche una funzione più diretta nel conflitto: a quanto si è appreso le truppe russe in territorio ucraino non hanno sistemi di comunicazione radio criptati e sono state divulgate le frequenze e le istruzioni necessarie a intercettare gli ordini provenienti dalla catena di comando e le comunicazioni tra le truppe sul campo.

Ma in Italia siamo pronti ad affrontare una guerra informatica?
Il 23 marzo un attacco ransomware ha colpito Trenitalia bloccando la vendita dei biglietti nelle stazioni, nelle biglietterie e self service. Anche se l'attacco hacker sembra essere opera della gang di hacker russo-bulgaro Hive non si sa ancora se sia collegato alla guerra Russo-Ucraina, ma ci mostra la fragilità delle nostre strutture.
Questa fragilità era già stata notata nel luglio del 2021 quando il CED e i servizi informatici della Regione Lazio hanno subito un attacco ransomware3 anche se in quel caso non si è trattato di un attacco informatico mirato (a differenza di quanto ha più volte dichiarato il presidente della Regione Lazio Zingaretti) ma di un ransomware che è entrato nel sistema a causa della “svista” di un dipendente della regione in Smart working.
A tal riguardo risulta interessante e preoccupante al tempo stesso il rapporto Cert-Agid sulla sicurezza dei siti pubblici del dicembre 2020 che dice quanto i nostri dati affidati alle PA locali siano a rischio. Da questa ricerca risulta che 445 (2%) portali istituzionali risultano senza HTTPS abilitato; 13.297 (67%) di questi portali hanno gravi problemi di sicurezza; 4.510 (22%) hanno un canale HTTPS mal configurato; mentre solo 1.766 (9%) utilizzano un canale HTTPS sicuro. Quasi il 50% dei siti monitorati anziché utilizzare soluzioni ad hoc si affidano a dei CSM che non sempre sono aggiornati all’ultima versione.
Se affianco a questi problemi strutturali mettiamo anche il fatto che molti dei dipendenti pubblici non hanno alcuna conoscenza sulla sicurezza informatica e si comportano con superficialità come nel caso sopra citato dell’attacco ramsomware alla Regione Lazio il quadro generale che si presenta è quello di un possibile colabrodo.

L’ Agenzia per l'Italia digitale (AGID) ha emanato una serie di misure minime di sicurezza per le pubbliche amministrazioni che andrebbero attuate. A seconda della complessità del sistema informativo a cui si riferiscono e della realtà organizzativa dell’Amministrazione, le misure minime possono essere implementate in modo graduale seguendo tre livelli di attuazione: minimo, standard, avanzato.
Il livello minimo è quello al quale ogni Pubblica Amministrazione, indipendentemente dalla sua natura e dimensione, deve necessariamente essere o rendersi conforme; quello standard è il livello che ogni amministrazione deve considerare come base di riferimento in termini di sicurezza e rappresenta la maggior parte delle realtà della PA italiana; infine il livello avanzato deve essere adottato dalle organizzazioni maggiormente esposte a rischi in base alla criticità delle informazioni trattate o dei servizi erogati, ma deve anche essere visto come l’obiettivo di miglioramento da parte di tutte le altre organizzazioni. È importante sottolineare che sebbene queste linee guida risalgono al 2017 il rapporto Cert-Agid sulla sicurezza dei siti pubblici è del 2020 e mostra quindi quanto sia ancora molto il lavoro da fare.
Per ultimo bisogna inserire nelle nostre considerazioni sulla sicurezza informatica italiana anche il recente dibattito sull’aumento delle spese militari in Italia: da quanto riportato da Adolfo Urso, presidente del Copasir, "Più spese per la difesa servono anche alla cybersecurity".
In diverse Relazioni il Comitato parlamentare per la sicurezza della Repubblica ha documentato al Parlamento come la Russia fosse diventata un Paese molto attrezzato nella sfera cibernetica e quanto fosse importante la difesa cyber, indicando la necessità di estendere il “golden power”4 al sistema delle telecomunicazioni e la necessità di realizzare un perimetro nazionale sulla sicurezza cibernetica. Questi due obiettivi sono stati raggiunti mentre a giugno 2021 è stata realizzata l’Agenzia nazionale cibernetica (un risultato purtroppo arrivato con dieci anni di ritardo rispetto a Paesi come la Francia e la Germania).
Una parte dell’aumento delle spese previste per la difesa andrebbero quindi a finanziare l’Agenzia nazionale cibernetica dato che, come abbiamo visto, la Cyberwar è pericolosa come una guerra normale.

Se nelle aziende private il problema della sicurezza informatica è sentita da tempo, tanto che gli investimenti sono sempre più sostanziosi e riguardano anche la formazione del personale, lo stesso non vale per la pubblica amministrazione dove spesso mancano le competenze e la reale percezione del pericolo che rappresenta. Affianco a questo stiamo assistendo a prese di posizione ideologiche che impediscono l’attuazione di un vero piano di sicurezza a livello nazionale.
Anche se non si potrà mai avere una sicurezza informatica al 100% ma cercare di limitare i danni è diventato oggi non più un opzione ma un obbligo.

 

 

 

 

1 Un attacco DDoS (Distributed Denial of Service) è un'arma di sicurezza informatica mirata a interrompere le operazioni di servizio o ad estorcere denaro da organizzazioni mirate. Gli attacchi possono essere guidati da politica, religione, competizione o profitto. Un attacco DDoS è una versione distribuita di un attacco Denial of Service (DoS) con lo scopo di interrompere le operazioni aziendali. Questo attacco utilizza un grande volume di traffico per sovraccaricare le normali operazioni di interconnessione di servizio, server o rete, rendendole non disponibili. Gli attacchi DoS interrompono un servizio mentre gli attacchi distribuiti (DDoS) sono eseguiti su scala molto più ampia, con la conseguente chiusura di intere infrastrutture e servizi scalabili (servizi Cloud).

2 L’hacktivismo è una forma di attivismo digitale non violento, il cui scopo principale non è legato a interessi economici personali. Gli Hacktivisti con le loro campagne mirano a obiettivi politici, sociali o anche religiosi in linea con la causa propugnata da ciascun gruppo di appartenenza.

3 I ransomware sono virus informatici che rendono inaccessibili i file dei computer infettati e chiedono il pagamento di un riscatto per ripristinarli.

4 Il golden power è uno strumento normativo, previsto in alcuni ordinamenti giuridici, che permette al Governo di un Paese sovrano di bloccare o apporre particolari condizioni a specifiche operazioni finanziarie, che ricadano nell'interesse nazionale

 

 

BIBLIOGRAFIA:

https://cert-agid.gov.it/news/monitoraggio-sul-corretto-utilizzo-del-protocollo-https-e-dei-livelli-di-aggiornamento-delle-versioni-dei-cms-nei-portali-istituzionali-della-pa/
https://sog.luiss.it/sites/sog.luiss.it/files/Policy_paper_print.pdf
https://www.agid.gov.it/it/sicurezza/misure-minime-sicurezza-ict
https://www.gazzettaufficiale.it/eli/id/2017/05/05/17A03060/sg

Il web che verrà
Il web che verrà

Siamo alle soglie del web 3.0 che non è solo il metaverso, che del futuro web rappresenta una visione dall’impatto molto forte, ma il web che verrà, seppur ancora molto nebuloso oggi, sarà molto di più.

Fino al 1993 internet era utilizzato quasi esclusivamente da scienziati, università, centri di ricerca e militari, l’utilizzo e la consultazione era fatto quasi esclusivamente tramite riga di comando. Con “l’apertura” della rete a tutti quanti inizia quello che verrà definito web 1.0.
All’inizio il web non era altro che un’evoluzione delle vecchie BBS, dove gli utenti si collegavano a delle pagine, ospitate da server ed usufruivano dei contenuti in maniera passiva. Chi si collegava ad un sito poteva solo navigare, sfogliare un catalogo virtuale di prodotti, approfondire delle conoscenze o fare acquisti online.
Le possibilità di interazione con i siti è molto limitata e, solitamente, avveniva tramite e-mail, fax, telefono e pochissimi siti permettevano di uplodare contenuti personali tramite Common Gateway Interface1 sviluppati in C/C++ o Pearl che spesso erano complicate da sviluppare e costose.
Il flusso di comunicazione era quindi unidirezionale da parte del sito web aziendale o personale che dava informazioni a utenti passivi.
Da un punto di vista economico il modello che presenta il web 1.0 non discosta molto dai media comuni quali la televisione o i giornali: su una pagina o un sito internet vengono pubblicati banner pubblicitari a pagamento o tramite il metodo PPC (Pay Per Click).

Il web 2.0 si evolve dando l’opportunità agli utenti di interagire con i siti e diventando loro stessi creatori di contenuti. All’inizio sono solo piccoli blog personali e qualche social network come Myspace o Twitter, in particolare, è quest’ultimo che dà la prima innovazione permettendo ai suoi iscritti di pubblicare brevi messaggi, anche tramite SMS e la possibilità di “ri-twittare” questi ultimi quindi condividerli; un anno dopo la sua nascita, nel 2007, nascono con twitter gli hashtag che permettono di aggregare le notizie e così dalle bombe a Boston del 2013, alla guerra in Siria, chi è testimone di eventi importanti ha la possibilità di informare il resto del mondo.
Allo stesso modo i nascono i social network che permettono di creare reti di utenti che scambiano idee ed opinioni (naturale evoluzione dei newsgroup e dei forum del web 1.0) e creano la nascita di nuove aziende e giganti del web che raccolgono sui loro server i dati degli utenti oltre che i contenuti che vengono pubblicati. Siti come Youtube, Facebook, Instagram, “vivono” grazie ai contenuti che gli iscritti generano e non forniscono nulla all’infuori dell’infrastruttura necessaria molto semplice da utilizzare e molta pubblicità.
Ed ecco la prima grande differenza tra il web 1.0 ed il 2.0: le centralità. Esistono poche aziende che offrono servizi che le persone utilizzano e i dati ed i contenuti che gli utenti producono sono conservati sui server di poche aziende. Prima chi pubblicava qualcosa online, sia che fosse su un sito personale o su un blog era il proprietario dello spazio che utilizzava, in quanto veniva affittato da un provider e i dati personali così come i contenuti che vi erano pubblicati rimanevano di sua proprietà mentre con l’utilizzo di social o di siti che permettono di condividere idee, foto e quant’altro possibile l’utente “cede” i propri dati personali così come i contenuti che genera ad un’azienda terza che ne può usufruire liberamente.
Con il web 2.0 viene generato un nuovo tipo di interconnessione tra utenti e servizi che genera una convergenza digitale dove poche interfacce tendono ad aggregare più servizi: tramite l’account social possiamo iscriverci a servizi di streaming o di mail, sui social possiamo leggere le ultime notizie di un giornale senza dover andare sul sito del medesimo, tramite i social possiamo mandare un messaggio ad un amico o più amici ed organizzare uscite o riunioni. Tutti questi servizi sono accentrati in un unico posto, sia fisico che virtuale, di proprietà di poche Holding internazionali.
Il modello economico del web 2.0 è anch’esso un’evoluzione del precedente, non solamente si basa sulla pubblicità che viene presentata agli utenti, ma anche tramite la condivisione dei dati personali che questi memorizzano sui server dei quali sono fruitori. Ed ecco perché c’è la necessità di centralizzare i dati raccolti.
Questo non vuol dire che l’attuale versione del web sia completamente negativa. Basti pensare cosa sarebbe successo all’economia mondiale durante la pandemia di Covid-19 se non vi fosse stata la possibilità di fare Smart Working elastico e flessibile, reso possibile proprio grazie alle innovazioni tecniche scaturite a seguito dell’evolversi del web, come ad esempio l’utilizzo di tecniche WebRTC2 o di file Sharing3.

Il web 3.0 rappresenterà, si spera, un’evoluzione dell’attuale concetto di web eliminando per prima cosa la centralità ed in questo modo garantire una miglior privacy e sicurezza dei dati. Come per il web 2.0 quando nacque anche per il 3.0 non sono ancora definite delle regole e delle linee guida tanto che si parla ancora di “possibili” evoluzioni e non di certezze, anche se possiamo descrivere quello che probabilmente sarà.
I social rimarranno e si evolveranno dando la possibilità di utilizzare realtà aumentata o virtuale (come nel caso del Metaverso) e nasceranno sempre più spazi virtuali 3D simili a “Second Life”.
L’aumento di contenuti generati dagli utenti trasformerà il web in un enorme Database dove per poter accedere in maniera costruttiva alle informazioni si farà sempre maggior uso del web semantico4  e dell’intelligenza artificiale che imparerà a conoscerci e conoscere i nostri gusti e abitudini. Per poter utilizzare al meglio l’intelligenza artificiale sul web e garantire nel contempo la privacy bisogna però che  venga decentralizzata (oggi Alexa, Google, Siri, Cortana, ecc. accedono via web ai server centrali delle rispettive aziende per poter funzionare) e dovrà essere controllata da una grande rete aperta, riducendo i rischi di monopolio.
Per poter attuare un web più decentrato si utilizzerà sicuramente la tecnologia blockchain che, per sua natura, si presenta come un’ architettura decentralizzata. La stessa tecnologia che sta alla base delle criptovalute e che, utilizzata per la sicurezza del passaggio dati nelle filiere, sarà la base dalla quale partirà il web 3.0. La blockchain è una struttura dati condivisa e immutabile, assimilabile a un database distribuito, gestito da una rete di nodi ognuno dei quali ne possiede una copia privata. Tutto questo permetterà di eliminare i webserver centralizzati in quanto i singoli utenti diventano loro stessi dei “miniserver”.
Come l’internet dell’inizio questo metodo garantirà che se anche un nodo va in crash o il server centrale (come ad esempio quello che gestisce Whatsapp, o Youtube o Facebook) il nostro sistema continuerà a funzionare ed i dati continueranno ad essere disponibili tra gli utenti. Questo permetterà anche un passaggio della governance del servizio dove i singoli utenti avranno maggior potere rispetto all’azienda principale; anche le informazioni saranno rivoluzionate e verranno riunite da diverse fonti tramite tecnologie tipo XML, WSDL o simili in un unico database che non esiste realmente ma è semplicemente un raccoglitore, ma al quale si potrà attingere come fosse un normale database.

Il cambiamento non sarà veloce ma assisteremo ad una transizione più “dolce” rispetto a quella dal web 1.0 al 2.0. Per molto tempo i due differenti web (2.0 e 3.0) convivranno ma il cambiamento, anche se lento sarà molto più profondo perché non sarà tanto un cambiamento di come “vediamo” il web ma riguarderà i suoi più profondi paradigmi. Quando arriveranno il metaverso e i  su suoi simili saranno ancora sistemi che si basano sul concetto del web 2.0 dove tutto è ancora centralizzato ma dietro a questi compariranno sempre più servizi che si basano su strutture decentralizzate e, per chi fosse incuriosito, segnalo due esempi già esistenti: dtube (https://d.tube/)  e OpenBazaar (https://github.com/OpenBazaar/openbazaar-desktop/releases) rispettivamente l’equivalente di Youtube ed e-Bay ma… decentralizzati.


 

 

 

1La Common Gateway Interface (CGI) è un’interfaccia di server web che consente lo scambio di dati standardizzato tra applicazioni esterne e server. Appartiene alle prime tecnologie di interfaccia di Internet. Le CGI sono dei programmi residenti sul server che ricevono in input un “GET” dal client che viene elaborato e come risultato generano una pagina internet standard.

2Con WebRTC si possono aggiungere funzionalità di comunicazione in tempo reale alle applicazioni web, che altrimenti impossibile, a causa della tecnologia di comunicazione utilizzata sul protocollo internet. WebRTC  si basa su uno standard aperto. Supporta i dati video, vocali e generici nello scambio di dati, consentendo agli sviluppatori di creare soluzioni efficaci per voce e video. La tecnologia è disponibile su tutti i browser moderni e sui client nativi per tutte le principali piattaforme. Le tecnologie su cui si basa WebRTC vengono implementate come standard web aperti e disponibili come normali API JavaScript in tutti i principali browser. Per i client nativi, come le applicazioni Android e iOS è disponibile una libreria che fornisce la stessa funzionalità. Il progetto WebRTC è open source ed è supportato da Apple, Google, Microsoft, Mozilla e molti altri.

3 Il termine file sharing si riferisce ad un apposito sistema che consente agli utenti di condividere file e documenti sul web o all’interno della medesima rete. Grazie ai programmi e siti di file sharing è infatti possibile trasferire dei documenti da un device all’altro.

4  Nel Web semantico ad ogni documento (un file, un’immagine, un test, etc.) sono associate informazioni e metadati che, fornendo un contesto semantico, ne rendono più facile l’interrogazione e l’interpretazione automatica da parte di un motore di ricerca. L’idea viene ipotizzata alla fine degli anni ’90 da Tim Berners-Lee dove ipotizzava un futuro dove  “..il commercio, la burocrazia e le nostre stesse vite quotidiane saranno gestite da macchine che parlano con altre macchine” .

 

 

BIBLIOGRAFIA:

Berners-Lee, M. Fischetti, “Weaving the Web“, 1999
Dev, maggio 2006, “Meta Content Frameworks e Rsource Decripti on Frameworks”, pp.61-66

Foward →
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.