Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Luoghi

Malcesine (vr)
Malcesine Il Castello Scaligero di Malcesine

Il castello che sorge nel pittoresco borgo di Malcesine sorveglia da secoli il più grande lago d’Italia.
Sebbene le origini del borgo gardesano risalgano al 500 a.c. le prime testimonianze di un castello compaiono solo durante il dominio dei Franchi che succedettero ai longobardi nel governo di Malcesine.

Proprio la posizione strategica del borgo ne fece durante i secoli un luogo particolarmente contestato dalle varie potenze che si succedettero nel controllo del territorio, così passo dal controllo della Federazione della Gardesana dell’Acqua a quello dei Visconti, di Venezia, dell’Austria, della Francia Napoleonica per diventare parte del Regno d’Italia solamente nel 1866.
I primi costruttori del castello sembrano essere stati i Longobardi di re Alboino che su di uno scoglio a picco sul lago ersero la prima roccaforte gardesana, che venne però distrutto una prima volta dalle truppe di Re Childerico; fu riedificato verso la fine dell’ottavo  ad opera dei Franchi quando Malcesine passò nelle mani di Carlo Magno, mentre le mura vennero allargate in seguito per contrastare le invasioni dei barbari Ungheri e andarono a proteggere il borgo.
La vera rinascita del castello avvenne però durante il periodo dei feudi prima divenendo parte della signoria del Vescovo di Verona dove acquisto una grande indipendenza tanto che il borgo ebbe la possibilità di coniare monete proprie. Intorno alla fine del 1200, il controllo del borgo e del castello passò ai signori “Della Scala”, e nel 1277 l’allora signore di Verona Alberto, capendone l’importanza strategica del borgo, rimaneggiò e restauro il castello con particolare cura. Da quel momento prende il nome di “Castello Scaligero” di Malcesine. Nel 1400, per difendersi dai tentativi di conquista dei Carraresi, il borgo di Malcesine dovette passare sotto la protezione della Serenissima Repubblica di Venezia che segna l’inizio di un periodo di stabilità e prosperità.

Sia che si arrivi dal lago o tramite la strada normale, il castello cattura subito lo sguardo con la sua torre pentagonale di 31 mt che domina l’intero paesaggio. In effetti il castello, insieme alla funivia, è il vero cuore dell’intero borgo di Malcesine che ogni anno accoglie migliaia di visitatori da tutto il mondo.
Appena si entra, sulla sinistra, c’è la “Casermetta” che al piano interrato e al piano terra ospita il Museo di Storia Naturale del monte Baldo e del Garda. In sole 9 sale il piccolo museo riesce a raccontare il territorio sia del Lago di Garda che del Monte Baldo da un punto di vista geologico e naturalistico; le quattro sale posizionate nel piano interrato sono dedicate soprattutto al lago mentre e le altre cinque al piano terra sono dedicate al paesaggio e alla montagna. Particolarmente affascinante è la prima sala il cui scopo è di immergere il visitatore nel lago, creando uno stacco con la realtà esterna e fargli immaginare di essere sul fondo del lago più grande d’Italia; affianco c’è la sala con la stratigrafia del lago che permette di capire realmente le dimensioni e la profondità del Lago di Garda e quale sia la sua fauna ittica.
Sebbene sarebbe sufficiente la visita al piccolo museo naturalistico per giustificare un’escursione al castello quello che questo bellissimo monumento offre è molto di più: percorrendo le mura e salendo sulla torre ,circa 400 scalini, da un’altezza di 70 metri (30 metri l’altezza della torre e circa 40 lo sperone roccioso sulla quale si erge) si può ammirare un panorama a 360° del lago e delle montagne da un punto di vista incantevole. Durante la salita si può ammirare un antico fucile

Un’altra sala che merita di essere vista è quella dedicata al poeta Goethe. Nel settembre del 1786, durante il suo viaggio in Italia il poeta incorre in una disavventura: arrivato a Malcesine, colpito dalla bellezza del lago e del castello si mette a dipingerlo. Le autorità veneziane,scambiandolo per una spia austriaca,  lo arrestano. Una volta chiarito l'equivoco, Goethe soggiornerà serenamente alcuni giorni proprio a Malcesine.
Appena fuori dalla “Casermetta” si sale per una gradinata, fino alla vecchia polveriera costruita dagli Austriaci che oggi prende il nome di “Sala Goethe”; qui si trovano esposte le immagini che Goethe ha tratteggiato del lago e del Castello. Appena oltre la sala è collocato in un angolo il busto del Poeta.

Dopo la “Sala Goethe” si può avere una prima visione del panorama del lago salendo una scalinata che porta a quello che viene definito il secondo cortile, chiamato “Rivellino”, dove vengono anche celebrati i matrimoni.


Attraverso un portale (chiamato “Portale Scaligero”) si accede al terzo cortile. La prima cosa che si nota è la presenza di un pozzo. Alla sinistra di questo, infondo al muro, oltre quelle che sembrano le antiche latrine, c’è un antico affresco raffigurante una Madonna con Bambino, segno che forse in passato era presente in quel punto una cappella.
Da questo cortile è possibile salire alla torre passando per la Sala Congressi della Residenza Scaligera oppure accedere al piano terra al Museo “delle Galee veneziane”, dedicato alla storia della navigazione sul lago e alla nascita e all’evoluzione del castello.
Il visitatore che accede a queste sale è accolto da un impressionante filmato animato che illustra l’impresa del trasporto via terra di una flotta da Venezia al Lago di Garda, il famoso: “Galeas per montes”, una delle più incredibili imprese di ingegneria militare realizzate nel medioevo. Tra il gennaio e l'aprile 1439 la Serenissima Repubblica di Venezia fece trasportare una flotta di 33 navi, dal Mar Adriatico al Lago di Garda, risalendo il fiume Adige fino a Rovereto e trasportando le navi via terra per un percorso di circa venti chilometri tra le montagne.

Se si ha intenzione di visitare Malcesine, magari per usufruire della famosa funivia, conviene sicuramente dedicare un paio d’ore a visitare il castello e conoscere meglio la storia, la morfologia e l’aspetto naturalistico presente nella zona del Garda.

Brisighella (ra)
Brisighella BRISIGHELLA: Il borgo dei tre colli

A metà strada tra Ravenna e Firenze sorge il pittoresco borgo di Brisighella. Qui il tempo rallenta e la vita sembra andare ad un ritmo diverso tanto che la famosa torre dell’orologio ha 6 numeri anziché 12. Il borgo si sviluppa nel pianoro sottostante la collina dei tre poggi e per visitarlo si segue un percorso in leggera salita. Brisighella viene anche chiamato il borgo dei tre colli in quanto sembra incorniciato da tre colli, sopra i quali sorgono la Rocca Manfrediana, la Torre dell’Orologi ed il Santuario del Monticino.

Prima però di parlare della rocca o della torre dobbiamo soffermarci sulla Via degli Asini o Via del Borgo, che, famosa per le sue caratteristiche che la rendono unica al mondo, è una strada sopraelevata si trova all’interno delle casette color pastello che si affacciano su di una grande strada che sembra più una piazza e che riceve luce dalle caratteristiche finestre ad arco.
Nata nel XIV secolo per scopi difensivi (rappresenta il più antico baluardo difensivo a protezione del borgo), successivamente venne utilizzata per trasportare il gesso delle cave servendosi di asinelli e da qui deriva il nome. Gli animali, quando non lavoravano, erano riposti nelle celle sulla strada difronte alle finestrelle ad arco, mentre i proprietari vivevano negli appartamenti sopra di esse.

La Torre dell’Orologio di Brisighella sorge oggi su uno dei tre colli che dominano il borgo. Fatta erigere da Maghinardo Pagani da Susinana nel 1290 per scopi difensivi, in quanto permetteva di avere un’ampia visione sul territorio e di controllare le mosse degli assediati nel vicino castello di Baccagnano , costituì fino al 1500 parte del sistema difensivo del borgo. La torre fu completamente ricostruita nel 1850 e nello stesso anno vi fu posto anche l’orologio la cui particolarità è quella di avere un quadrante con solo sei ore.
La torre è raggiungibile a piedi o in auto; se la si vuole raggiungerla a piedi il percorso parte dalla Via degli Asini e dopo 300 scalini si raggiunge la base della torre. Consiglio di fare il questo percorso in quanto offre degli scorci stupendi sui tette e la vallata sottostante.
Dalla torre parte un sentiero che collega la stessa alla Rocca Manfrediana.

La rocca Manfrediana venne costruita nel 1310 dai Manfredi, signori di Faenza (i Manfredi) e fu la dimora di questa potente famiglia fino al 1500. Oggi la rocca è visitabile pagando un biglietto (circa 3€) e si può passeggiare sulle mura e sulle passerelle che collegano le torri. La Rocca conserva ancora le caratteristiche delle fortezze medioevali: i fori per le catene dei ponti levatoi sopra la porta d’ingresso, i beccatelli usati per sostenere parti sporgenti e le caditoie , i camminamenti sulle mura di cinta, le feritoie.
Dalla torre si può tornare in paese tramite un sentiero che scende senza scalini così da fare un percorso ad anello.

Brisighella offre molti posti dove mangiare bene e la cucina è veramente buona, ma a chi volesse provare consiglio la trattoria “La Casetta”: ottima l’accoglienza, ampia scelta di menù sia di carne che di pesce; preparati e gentili i camerieri. Noi abbiamo optato per un menù degustazione che sinceramente anche se era squisito non siamo riusciti a terminare. Incredibile il rapporto qualità prezzo.

Rasiglia (Pg)
Rasiglia Il miracolo di Rasiglia

Nel cuore dell’Umbria c’è una perla nascosta che pochi conoscono, un piccolissimo borgo dove l’acqua è l’elemento caratterizzante del paesaggio e che sembra immerso in un’atmosfera da sogno: Rasiglia.

Le prime notizie sull’esistenza del paese risalgono agli inizi del XIII secolo ma è molto probabile che degli insediamenti siano stati presenti nella zona da molto prima vista l'abbondanza d'acqua.
È fu proprio l’abbondanza d’acqua a determinare la crescita economica ed industriale del piccolo borgo in età medioevale che sfruttata la creazione di numerosi opifici, come gualchiere, mulini a grano, lanifici e tintorie che eseguivano la lavorazione di stoffe pregiate; la fertilità della terra circostante permise inoltre di avere sempre le materie prime per poter far funzionare il laborioso complesso industriale che si sviluppava.
In particolare i lanifici rimasero in attività per tutto l’800 e buona parte del ‘900 con la chiusura dell’ultimo stabilimento solamente nel 1980.
In realtà il declino di Rasilia inizò nella seconda metà del secolo scorso, dopo la seconda guerra mondiale, quando la povertà assoluta, le poche occasioni di lavoro, la chiusura delle attività industriali spinsero la gente a lasciare il paese e migrare verso le grandi città, in particolar modo Foligno che dista solamente 18Km. Con lo spopolamento del borgo le piccole attività economiche iniziarono a chiudere lentamente ed il paese rischiò di scomparire.
Il terremoto del 1997 diete il colpo di grazia al paese e solamente la riscoperta da parte del turismo ha permesso di far rinascere il piccolo borgo che, ad oggi, conta circa una settantina di abitanti quasi tutti in età avanzata: nel fine settimana arrivano migliaia di turisti, che scoprono questo borgo tramite il web o da amici che ne parlano, tanto che oggi si può tranquillamente parlare del  “miracolo Rasiglia”.
I mulini sono stati trasformati in abitazioni o in attrazioni per i turisti che possono ammirare le strutture artigianali di un tempo e le attrezzature utilizzate per fare la lana e macinare il grano tanto che rappresenta un raro esempio di conservazione di tutti gli elementi necessari alla produzione dei manufatti tessili, dalla tosatura alla realizzazione del prodotto finito.

Visitare Rasiglia vuol dire immergersi in un passato mai completamente sparito, in un borgo circondato dal verde delle colline umbre e dove il gorgoglio dell’acqua che si incanala lungo la principale via del paese permette al visitatore di rilassarsi e dimenticare la frenesia della vita moderna.

  ► Magazine

Cyberwar
Cyberwar

Anche se da un punto di vista puramente strategico il recente conflitto scoppiato in Ucraina sembra riportare indietro la storia militare di quasi 80 anni dove è la fanteria ad avere il peso maggiore, abbiamo visto in questo conflitto per la prima volta l’utilizzo della “Cyberwar” come arma; come un bombardamento può mettere fuori uso le infrastrutture di un paese allo stesso modo un cyber-attacco può paralizzare aeroporti, treni e comunicazioni.

Il 24 febbraio l’aggressione della Russia all’Ucraina era stato anticipato da un attacco tramite un malware che aveva cancellato i computer di una banca ucraina e di un'agenzia governativa. Ma gli attacchi informatici alle strutture amministrative ed economiche ucraine erano iniziati già prima dell'invasione militare: il governo di Zelensky aveva segnalato un cyber-attacco il 14 gennaio che aveva preso di mira i siti web del ministero degli esteri del paese, il gabinetto dei ministri e i consigli della difesa. Un mese dopo i responsabili della cybersecurity ucraine hanno segnalato un attacco DDoS1 contro due delle maggiori banche del paese, PrivatBank e Oschadbank.

Affianco agli attacchi “ufficiali” portati avanti da entrambi i contendenti (anche l’Ucraina tramite una trentina di  gruppi di Hacker porta avanti una sua guerra informatica alla Russia) si sono schierati gruppi di hacktivisti2 come Anonymous che, il 26 febbraio ha dichiarato di essere sceso in guerra contro la Russia, creano danni e disservizi come l’Hackeraggio della TV russa con la trasmissione di immagini della guerra o il furto di 35 mila file della banca centrale russa  contenente anche contratti segreti; un'azione che ha bloccato il traffico ferroviario in Bielorussia, nazione che appoggia esplicitamente la Russia sia logisticamente che militarmente, è stata rivendicata dai un gruppo hacker.
Affianco a questi attacchi che creano disservizi gli attacchi informatici hanno anche una funzione più diretta nel conflitto: a quanto si è appreso le truppe russe in territorio ucraino non hanno sistemi di comunicazione radio criptati e sono state divulgate le frequenze e le istruzioni necessarie a intercettare gli ordini provenienti dalla catena di comando e le comunicazioni tra le truppe sul campo.

Ma in Italia siamo pronti ad affrontare una guerra informatica?
Il 23 marzo un attacco ransomware ha colpito Trenitalia bloccando la vendita dei biglietti nelle stazioni, nelle biglietterie e self service. Anche se l'attacco hacker sembra essere opera della gang di hacker russo-bulgaro Hive non si sa ancora se sia collegato alla guerra Russo-Ucraina, ma ci mostra la fragilità delle nostre strutture.
Questa fragilità era già stata notata nel luglio del 2021 quando il CED e i servizi informatici della Regione Lazio hanno subito un attacco ransomware3 anche se in quel caso non si è trattato di un attacco informatico mirato (a differenza di quanto ha più volte dichiarato il presidente della Regione Lazio Zingaretti) ma di un ransomware che è entrato nel sistema a causa della “svista” di un dipendente della regione in Smart working.
A tal riguardo risulta interessante e preoccupante al tempo stesso il rapporto Cert-Agid sulla sicurezza dei siti pubblici del dicembre 2020 che dice quanto i nostri dati affidati alle PA locali siano a rischio. Da questa ricerca risulta che 445 (2%) portali istituzionali risultano senza HTTPS abilitato; 13.297 (67%) di questi portali hanno gravi problemi di sicurezza; 4.510 (22%) hanno un canale HTTPS mal configurato; mentre solo 1.766 (9%) utilizzano un canale HTTPS sicuro. Quasi il 50% dei siti monitorati anziché utilizzare soluzioni ad hoc si affidano a dei CSM che non sempre sono aggiornati all’ultima versione.
Se affianco a questi problemi strutturali mettiamo anche il fatto che molti dei dipendenti pubblici non hanno alcuna conoscenza sulla sicurezza informatica e si comportano con superficialità come nel caso sopra citato dell’attacco ramsomware alla Regione Lazio il quadro generale che si presenta è quello di un possibile colabrodo.

L’ Agenzia per l'Italia digitale (AGID) ha emanato una serie di misure minime di sicurezza per le pubbliche amministrazioni che andrebbero attuate. A seconda della complessità del sistema informativo a cui si riferiscono e della realtà organizzativa dell’Amministrazione, le misure minime possono essere implementate in modo graduale seguendo tre livelli di attuazione: minimo, standard, avanzato.
Il livello minimo è quello al quale ogni Pubblica Amministrazione, indipendentemente dalla sua natura e dimensione, deve necessariamente essere o rendersi conforme; quello standard è il livello che ogni amministrazione deve considerare come base di riferimento in termini di sicurezza e rappresenta la maggior parte delle realtà della PA italiana; infine il livello avanzato deve essere adottato dalle organizzazioni maggiormente esposte a rischi in base alla criticità delle informazioni trattate o dei servizi erogati, ma deve anche essere visto come l’obiettivo di miglioramento da parte di tutte le altre organizzazioni. È importante sottolineare che sebbene queste linee guida risalgono al 2017 il rapporto Cert-Agid sulla sicurezza dei siti pubblici è del 2020 e mostra quindi quanto sia ancora molto il lavoro da fare.
Per ultimo bisogna inserire nelle nostre considerazioni sulla sicurezza informatica italiana anche il recente dibattito sull’aumento delle spese militari in Italia: da quanto riportato da Adolfo Urso, presidente del Copasir, "Più spese per la difesa servono anche alla cybersecurity".
In diverse Relazioni il Comitato parlamentare per la sicurezza della Repubblica ha documentato al Parlamento come la Russia fosse diventata un Paese molto attrezzato nella sfera cibernetica e quanto fosse importante la difesa cyber, indicando la necessità di estendere il “golden power”4 al sistema delle telecomunicazioni e la necessità di realizzare un perimetro nazionale sulla sicurezza cibernetica. Questi due obiettivi sono stati raggiunti mentre a giugno 2021 è stata realizzata l’Agenzia nazionale cibernetica (un risultato purtroppo arrivato con dieci anni di ritardo rispetto a Paesi come la Francia e la Germania).
Una parte dell’aumento delle spese previste per la difesa andrebbero quindi a finanziare l’Agenzia nazionale cibernetica dato che, come abbiamo visto, la Cyberwar è pericolosa come una guerra normale.

Se nelle aziende private il problema della sicurezza informatica è sentita da tempo, tanto che gli investimenti sono sempre più sostanziosi e riguardano anche la formazione del personale, lo stesso non vale per la pubblica amministrazione dove spesso mancano le competenze e la reale percezione del pericolo che rappresenta. Affianco a questo stiamo assistendo a prese di posizione ideologiche che impediscono l’attuazione di un vero piano di sicurezza a livello nazionale.
Anche se non si potrà mai avere una sicurezza informatica al 100% ma cercare di limitare i danni è diventato oggi non più un opzione ma un obbligo.

 

 

 

 

1 Un attacco DDoS (Distributed Denial of Service) è un'arma di sicurezza informatica mirata a interrompere le operazioni di servizio o ad estorcere denaro da organizzazioni mirate. Gli attacchi possono essere guidati da politica, religione, competizione o profitto. Un attacco DDoS è una versione distribuita di un attacco Denial of Service (DoS) con lo scopo di interrompere le operazioni aziendali. Questo attacco utilizza un grande volume di traffico per sovraccaricare le normali operazioni di interconnessione di servizio, server o rete, rendendole non disponibili. Gli attacchi DoS interrompono un servizio mentre gli attacchi distribuiti (DDoS) sono eseguiti su scala molto più ampia, con la conseguente chiusura di intere infrastrutture e servizi scalabili (servizi Cloud).

2 L’hacktivismo è una forma di attivismo digitale non violento, il cui scopo principale non è legato a interessi economici personali. Gli Hacktivisti con le loro campagne mirano a obiettivi politici, sociali o anche religiosi in linea con la causa propugnata da ciascun gruppo di appartenenza.

3 I ransomware sono virus informatici che rendono inaccessibili i file dei computer infettati e chiedono il pagamento di un riscatto per ripristinarli.

4 Il golden power è uno strumento normativo, previsto in alcuni ordinamenti giuridici, che permette al Governo di un Paese sovrano di bloccare o apporre particolari condizioni a specifiche operazioni finanziarie, che ricadano nell'interesse nazionale

 

 

BIBLIOGRAFIA:

https://cert-agid.gov.it/news/monitoraggio-sul-corretto-utilizzo-del-protocollo-https-e-dei-livelli-di-aggiornamento-delle-versioni-dei-cms-nei-portali-istituzionali-della-pa/
https://sog.luiss.it/sites/sog.luiss.it/files/Policy_paper_print.pdf
https://www.agid.gov.it/it/sicurezza/misure-minime-sicurezza-ict
https://www.gazzettaufficiale.it/eli/id/2017/05/05/17A03060/sg

Il web che verrà
Il web che verrà

Siamo alle soglie del web 3.0 che non è solo il metaverso, che del futuro web rappresenta una visione dall’impatto molto forte, ma il web che verrà, seppur ancora molto nebuloso oggi, sarà molto di più.

Fino al 1993 internet era utilizzato quasi esclusivamente da scienziati, università, centri di ricerca e militari, l’utilizzo e la consultazione era fatto quasi esclusivamente tramite riga di comando. Con “l’apertura” della rete a tutti quanti inizia quello che verrà definito web 1.0.
All’inizio il web non era altro che un’evoluzione delle vecchie BBS, dove gli utenti si collegavano a delle pagine, ospitate da server ed usufruivano dei contenuti in maniera passiva. Chi si collegava ad un sito poteva solo navigare, sfogliare un catalogo virtuale di prodotti, approfondire delle conoscenze o fare acquisti online.
Le possibilità di interazione con i siti è molto limitata e, solitamente, avveniva tramite e-mail, fax, telefono e pochissimi siti permettevano di uplodare contenuti personali tramite Common Gateway Interface1 sviluppati in C/C++ o Pearl che spesso erano complicate da sviluppare e costose.
Il flusso di comunicazione era quindi unidirezionale da parte del sito web aziendale o personale che dava informazioni a utenti passivi.
Da un punto di vista economico il modello che presenta il web 1.0 non discosta molto dai media comuni quali la televisione o i giornali: su una pagina o un sito internet vengono pubblicati banner pubblicitari a pagamento o tramite il metodo PPC (Pay Per Click).

Il web 2.0 si evolve dando l’opportunità agli utenti di interagire con i siti e diventando loro stessi creatori di contenuti. All’inizio sono solo piccoli blog personali e qualche social network come Myspace o Twitter, in particolare, è quest’ultimo che dà la prima innovazione permettendo ai suoi iscritti di pubblicare brevi messaggi, anche tramite SMS e la possibilità di “ri-twittare” questi ultimi quindi condividerli; un anno dopo la sua nascita, nel 2007, nascono con twitter gli hashtag che permettono di aggregare le notizie e così dalle bombe a Boston del 2013, alla guerra in Siria, chi è testimone di eventi importanti ha la possibilità di informare il resto del mondo.
Allo stesso modo i nascono i social network che permettono di creare reti di utenti che scambiano idee ed opinioni (naturale evoluzione dei newsgroup e dei forum del web 1.0) e creano la nascita di nuove aziende e giganti del web che raccolgono sui loro server i dati degli utenti oltre che i contenuti che vengono pubblicati. Siti come Youtube, Facebook, Instagram, “vivono” grazie ai contenuti che gli iscritti generano e non forniscono nulla all’infuori dell’infrastruttura necessaria molto semplice da utilizzare e molta pubblicità.
Ed ecco la prima grande differenza tra il web 1.0 ed il 2.0: le centralità. Esistono poche aziende che offrono servizi che le persone utilizzano e i dati ed i contenuti che gli utenti producono sono conservati sui server di poche aziende. Prima chi pubblicava qualcosa online, sia che fosse su un sito personale o su un blog era il proprietario dello spazio che utilizzava, in quanto veniva affittato da un provider e i dati personali così come i contenuti che vi erano pubblicati rimanevano di sua proprietà mentre con l’utilizzo di social o di siti che permettono di condividere idee, foto e quant’altro possibile l’utente “cede” i propri dati personali così come i contenuti che genera ad un’azienda terza che ne può usufruire liberamente.
Con il web 2.0 viene generato un nuovo tipo di interconnessione tra utenti e servizi che genera una convergenza digitale dove poche interfacce tendono ad aggregare più servizi: tramite l’account social possiamo iscriverci a servizi di streaming o di mail, sui social possiamo leggere le ultime notizie di un giornale senza dover andare sul sito del medesimo, tramite i social possiamo mandare un messaggio ad un amico o più amici ed organizzare uscite o riunioni. Tutti questi servizi sono accentrati in un unico posto, sia fisico che virtuale, di proprietà di poche Holding internazionali.
Il modello economico del web 2.0 è anch’esso un’evoluzione del precedente, non solamente si basa sulla pubblicità che viene presentata agli utenti, ma anche tramite la condivisione dei dati personali che questi memorizzano sui server dei quali sono fruitori. Ed ecco perché c’è la necessità di centralizzare i dati raccolti.
Questo non vuol dire che l’attuale versione del web sia completamente negativa. Basti pensare cosa sarebbe successo all’economia mondiale durante la pandemia di Covid-19 se non vi fosse stata la possibilità di fare Smart Working elastico e flessibile, reso possibile proprio grazie alle innovazioni tecniche scaturite a seguito dell’evolversi del web, come ad esempio l’utilizzo di tecniche WebRTC2 o di file Sharing3.

Il web 3.0 rappresenterà, si spera, un’evoluzione dell’attuale concetto di web eliminando per prima cosa la centralità ed in questo modo garantire una miglior privacy e sicurezza dei dati. Come per il web 2.0 quando nacque anche per il 3.0 non sono ancora definite delle regole e delle linee guida tanto che si parla ancora di “possibili” evoluzioni e non di certezze, anche se possiamo descrivere quello che probabilmente sarà.
I social rimarranno e si evolveranno dando la possibilità di utilizzare realtà aumentata o virtuale (come nel caso del Metaverso) e nasceranno sempre più spazi virtuali 3D simili a “Second Life”.
L’aumento di contenuti generati dagli utenti trasformerà il web in un enorme Database dove per poter accedere in maniera costruttiva alle informazioni si farà sempre maggior uso del web semantico4  e dell’intelligenza artificiale che imparerà a conoscerci e conoscere i nostri gusti e abitudini. Per poter utilizzare al meglio l’intelligenza artificiale sul web e garantire nel contempo la privacy bisogna però che  venga decentralizzata (oggi Alexa, Google, Siri, Cortana, ecc. accedono via web ai server centrali delle rispettive aziende per poter funzionare) e dovrà essere controllata da una grande rete aperta, riducendo i rischi di monopolio.
Per poter attuare un web più decentrato si utilizzerà sicuramente la tecnologia blockchain che, per sua natura, si presenta come un’ architettura decentralizzata. La stessa tecnologia che sta alla base delle criptovalute e che, utilizzata per la sicurezza del passaggio dati nelle filiere, sarà la base dalla quale partirà il web 3.0. La blockchain è una struttura dati condivisa e immutabile, assimilabile a un database distribuito, gestito da una rete di nodi ognuno dei quali ne possiede una copia privata. Tutto questo permetterà di eliminare i webserver centralizzati in quanto i singoli utenti diventano loro stessi dei “miniserver”.
Come l’internet dell’inizio questo metodo garantirà che se anche un nodo va in crash o il server centrale (come ad esempio quello che gestisce Whatsapp, o Youtube o Facebook) il nostro sistema continuerà a funzionare ed i dati continueranno ad essere disponibili tra gli utenti. Questo permetterà anche un passaggio della governance del servizio dove i singoli utenti avranno maggior potere rispetto all’azienda principale; anche le informazioni saranno rivoluzionate e verranno riunite da diverse fonti tramite tecnologie tipo XML, WSDL o simili in un unico database che non esiste realmente ma è semplicemente un raccoglitore, ma al quale si potrà attingere come fosse un normale database.

Il cambiamento non sarà veloce ma assisteremo ad una transizione più “dolce” rispetto a quella dal web 1.0 al 2.0. Per molto tempo i due differenti web (2.0 e 3.0) convivranno ma il cambiamento, anche se lento sarà molto più profondo perché non sarà tanto un cambiamento di come “vediamo” il web ma riguarderà i suoi più profondi paradigmi. Quando arriveranno il metaverso e i  su suoi simili saranno ancora sistemi che si basano sul concetto del web 2.0 dove tutto è ancora centralizzato ma dietro a questi compariranno sempre più servizi che si basano su strutture decentralizzate e, per chi fosse incuriosito, segnalo due esempi già esistenti: dtube (https://d.tube/)  e OpenBazaar (https://github.com/OpenBazaar/openbazaar-desktop/releases) rispettivamente l’equivalente di Youtube ed e-Bay ma… decentralizzati.


 

 

 

1La Common Gateway Interface (CGI) è un’interfaccia di server web che consente lo scambio di dati standardizzato tra applicazioni esterne e server. Appartiene alle prime tecnologie di interfaccia di Internet. Le CGI sono dei programmi residenti sul server che ricevono in input un “GET” dal client che viene elaborato e come risultato generano una pagina internet standard.

2Con WebRTC si possono aggiungere funzionalità di comunicazione in tempo reale alle applicazioni web, che altrimenti impossibile, a causa della tecnologia di comunicazione utilizzata sul protocollo internet. WebRTC  si basa su uno standard aperto. Supporta i dati video, vocali e generici nello scambio di dati, consentendo agli sviluppatori di creare soluzioni efficaci per voce e video. La tecnologia è disponibile su tutti i browser moderni e sui client nativi per tutte le principali piattaforme. Le tecnologie su cui si basa WebRTC vengono implementate come standard web aperti e disponibili come normali API JavaScript in tutti i principali browser. Per i client nativi, come le applicazioni Android e iOS è disponibile una libreria che fornisce la stessa funzionalità. Il progetto WebRTC è open source ed è supportato da Apple, Google, Microsoft, Mozilla e molti altri.

3 Il termine file sharing si riferisce ad un apposito sistema che consente agli utenti di condividere file e documenti sul web o all’interno della medesima rete. Grazie ai programmi e siti di file sharing è infatti possibile trasferire dei documenti da un device all’altro.

4  Nel Web semantico ad ogni documento (un file, un’immagine, un test, etc.) sono associate informazioni e metadati che, fornendo un contesto semantico, ne rendono più facile l’interrogazione e l’interpretazione automatica da parte di un motore di ricerca. L’idea viene ipotizzata alla fine degli anni ’90 da Tim Berners-Lee dove ipotizzava un futuro dove  “..il commercio, la burocrazia e le nostre stesse vite quotidiane saranno gestite da macchine che parlano con altre macchine” .

 

 

BIBLIOGRAFIA:

Berners-Lee, M. Fischetti, “Weaving the Web“, 1999
Dev, maggio 2006, “Meta Content Frameworks e Rsource Decripti on Frameworks”, pp.61-66

Il metaverso evoluzione della realtà virtuale e di internet.
Il metaverso evoluzione della realtà virtuale e di internet.

Molti utenti whatsapp si saranno accorti che da qualche tempo il celebre programma di istant messaging non reca più la scritta “From Facebook” ma bensì “From Meta”. Le male lingue hanno insinuato che questo cambiamento è dovuto al recente scandalo - il secondo per gravità dopo quello di Cambridge Analytica – emerso dalle dichiarazioni della whistleblower Frances Haugen riguardo diverse pratiche dannose di cui Facebook era consapevole e, di conseguenza, ad un tentativo da parte della società di rilanciare la propria immagine uscita acciaccata dai “facebook pappers”.
Così, dopo mesi di anticipazioni, smentite e retroscena, è arrivato l’annuncio ufficiale: il “gruppo Facebook” cambierà nome e si chiamerà “Meta” che in greco vuol dire oltre e l’intenzione (a parole) di business model dall’azienda di Menlo Park  fin qui seguito è quella di andare “oltre” l’utilizzo di app  tra loro interconnesse come Facebook, Instagram, Messenger, Whatsapp, ecc.
Questo non vuol dire che le nostre app che tutti i giorni guardiamo e utilizziamo cambieranno nome, Facebook continuerà a chiamarsi Facebook, Whatsapp con il suo nome e così tutte le altre.
No, l’idea di Zuckerberg & Co. È quella di creare una nuova realtà virtuale, totalmente immersiva che ci dovrebbe accompagnare nella vita di tutti i giorni dal lavoro alla socialità.

Quella proposta da Zuckerberg non è una novità nel mondo dell’informatica né tanto meno dell’intrattenimento.
L’idea di una realtà immersiva si può far risalire alla metà del secolo scorso, quando un giovane cineasta, Mort Heiling vide a Brodway il film “This is Cinerama” proiettato su schermo gigante e ricurvo, che prende il nome appunto di Cinerama.
Da quell’esperienza Heiling ebbe l’idea di creare un dispositivo che permetteva a chi lo utilizzava di provare vere sensazioni e che chiamò “Sensorama”. Si trattava di una cabina in grado di ospitare una persona e che combinava effetti tridimensionali tramite un visore stereoscopico sul modello del View-Master 1, suono stereofonico, vibrazioni per mezzo di un manubrio che veniva afferrato e soffi di profumi. Quello che sensorama permetteva di fare era di creare nello spettatore un’esperienza il più realistica possibile di una corsa in un mercato dei fiori, su di una spiaggia e sulle strade di Brooklyn. Brevettato nel 1962 non ebbe successo tra le grandi case cinamatografiche e divenne famosa come macchina a gettoni nei luna park.
Qualche anno dopo (1965) un giovane ingegnere di nome Ivan Sutherlan ebbe l’idea che si potessero utilizzare i computer per il lavoro di progettazione; secondo Sutherlan un monitor collegato ad un computer offriva la possibilità di acquisire familiarità con concetti impossibili da realizzare nel mondo reale. Con quest’idea nel 1968, mentre era ancora professore all’università di Harvard, insieme ad alcuni suoi studenti tra i quali Bob Sproull, Quintin Foster, Danny Cohen creò il primo casco per la realtà virtuale.
Ma i mondi virtuali non devono solo essere percepiti ma c’è bisogno che si possa interagire con loro, così nel 1970 Myron Krueger, pioniere della computer art, interessandosi “agli ambienti sensibili controllati dal computer” coniò il termine realtà artificiale. Secondo Krueger la tastiera teneva lontani tanti utenti nell’accostarsi al computer per creare espressioni artistiche e così ideo “Videoplace”: un sistema  composto da una telecamera controllata da un computer e da un grande schermo. Quando un utente si metteva davanti alla telecamera la sua immagine veniva catturata dal computer, proiettata sullo schermo e combinata con le immagini ivi presenti. L’immagine della persona era rappresentata come una silhouette e interagiva con gli oggetti presenti sullo schermo spingendoli, afferrandoli, alzandoli, ecc.
Il progetto di Krueger morì perché non ottenne finanziamenti per il suo sviluppo mentre nello stesso periodo il Governo Federale degli Stati Uniti investiva ingenti somme nello sviluppo della tecnologia “Moviemap” del MIT che consentiva all’utente di muoversi attraverso una versione video di Aspen toccando semplicemente alcune parti dello schermo. Da lì, nel 1981, nacque il progetto “SuperCockpit” dell’aereonautica militare sotto la direzione di Tom Furnes: una finta cabina di pilotaggio che utilizzava alcuni computer e un casco virtuale per addestrare i piloti al combattimento.
Il SuperCockpit aveva però costi altissimi e la Nasa nel 1990 sviluppò “VIEW” (Virtual Interface Environment Workstation), il primo sistema a combinare grafica computerizzata, immagini video, riconoscimento vocale, un casco per la realtà virtuale ed un guanto tattile (inventato nel 1982 da Tom Zimmermann e Jaron Lainer quando lavoravano alla Atari).
L’idea della Nasa di utilizzare tecnologie già presenti e relativamente economiche per creare simulazioni realistiche per le future missioni spaziali fece capire che era possibile creare une realtà artificiale senza dover investire milioni di dollari.
Gli inizi degli anni ’90 videro un fiorire di idee per la realizzazione di realtà virtuale con progetti fai da te come gli schemi per poter collegare il “Power Golve”2 della mattel (creato per la piattaforma videoludica della Nintendo) ad un normale computer tramite porta parallela3 nonché  i relativi codici per programmarlo tramite linguaggio C, la nascita di diversi software a pagamento o freeware per la creazione di mondi ed in fine, la commercializzazione dei primi caschi di realtà immersiva a prezzi relativamente bassi ( qualche centinaia di migliaia di lire).
Qualche anno più tardi le prime webcam che venivano commercializzate spesso erano accompagnate da programmi che permettevano (come nel caso della webcam LG LPCU30) di interagire con immagini generate al computer come nel videoplace di Krueger.

Nella letteratura fantascientifica l’idea di mondi virtuali ha preso piede, soprattutto nella cultura Cyber Punk in romanzi come “Neuromante” o “Aidoru” di William Gibson dove il reale ed il virtuale si fondono in un’unica realtà soggettiva. Ed è proprio dalla cultura Cyber Punk che nasce il termine “Metaverso” utilizzato da Zuckerberg per la sua nuova creatura, in particolare dal romanzo “Snow Crash” del 1992 di Neal Stephenson. Nella cultura mainstream, l’idea di un mondo virtuale dove le persone interagiscono lo si trova in film come “Il 13° piano” tratto dal romanzo “Simulacron 3” di Galouye o la trilogia di “Matrix” (sempre ispirata dallo stesso romanzo).
Sulla scia di questi successi cinematografici, dell’interesse per la realtà virtuale, la massificazione di internet, nonché la nascita dei primi social network, nel 2003 nasce “Second Life”: un mondo virtuale dove gli utenti (chiamati anche residenti) accedono al mondo virtuale attraverso un loro avatar e dove possono muoversi liberamente, interagire con altri utenti e acquistare beni e servizi virtuali o reali pagando con tanto di moneta virtuale convertibile in dollari o euro.
Dopo un inizio un po’ difficile (le risorse chieste ai computer erano impegnative ed inoltre in Italia le connessioni internet erano ancora lente), Second Live ha raggiunto il massimo di utenti nel 2013 con un milione di abbonati per poi assestarsi tra gli 800.000 ed i 900.000. Negli ultimi anni diverse piattaforme sono nate, soprattutto a livello video ludico, per permettere agli utenti di interagire con mondi virtuali, come “Minecraft”, “Fortnite” o “The Sandbox” molto simile al metaverso di Meta.

Cosa fa allora pensare a “Meta” che il suo “Metaverso” sia diverso da tutte le realtà già presenti?
Innanzi tutto bisogna considerare che il metaverso farà largo delle tecnologie di realtà virtuale sviluppate negli ultimi anni come i visori sitle Hololens alle quali affiancherà hardware sviluppato autonomamente già in progettazione (ad esempio i guanti tattili). In aggiunta a ciò Facebook/Meta può vantare un vasto background di utenza e una vasta esperienza nel coinvolgere gli internauti a diventare sempre più dipendenti dai propri prodotti.  Un’altra freccia all’arco di Zuckerberg è l’idea di presentare il metaverso come un mondo alternativo che però interagirà con quello reale e non sarà solamente un luogo di svago o di fuga, ma una piattaforma per poter anche lavorare, creare riunioni virtuali, lezioni virtuali il tutto tramite un avatar.
Certo la concorrenza non mancherà visto che Microsoft, a pochi giorni dall’annuncio di Meta ha presentato il suo metaverso durante Ignite 2021 (la principale conferenza Microsoft dedicata al mondo Enterprise) al quale si potrà accedere tramite la piattaforma Microsoft Mesh per Teams e che farà uso di visori a realtà aumentata. Come per il metaverso di Menlo Park anche quello di Redmond punta soprattutto agli utenti che professionisti che lavorano e lavoreranno (si presume in un futuro prossimo sempre di più) in smartworking.

Ma abbiamo davvero bisogno di un metaverso?
A usufruire della nascita dei metaversi saranno principalmente le aziende produttrici di accessori per realtà aumentata o virtuale che ad oggi hanno avuto un mercato molto limitato visto il costo dell’hardware e i settori di applicazioni molto di nicchia, mentre per l’utente consumer, invece, il vantaggio sarà un graduale abbassamento del prezzo del sopracitato hardware.
Come tutte le tecnologie anche il metaverso può essere sia un bene che un male, dipende dagli usi che ne verranno fatti e dalla consapevolezza e maturità degli utenti.
Purtroppo abbiamo visto come, negli ultimi 15-20 anni internet, che è una tecnologia che permette di ampliare le proprie conoscenze e migliorare la vita dei singoli utenti, sia diventato monopolio di grandi multinazionali e ricettacolo di pseudo-verità e futili intrattenimenti, quando non anche per creare disinformazione (non ultimi i famosi Facebook pappers).
Il metaverso è la naturale evoluzione dell’internet che conosciamo, ci vorranno anni per vederlo sviluppato alla massima potenza, per adesso abbiamo solo aziende come Microsoft, Roblox, Epic Games, Tencent, Alibaba e ByteDance che stanno investendo ma quello che sarà non è ancora definito; saremo noi, come è accaduto con lo sviluppo di internet, che decideremo cosa nascerà, facendo scelte che a noi sembreranno insignificanti ma che le grandi multinazionali usano per fare soldi. Lo scandalo Facebook, dove venivano evidenziati i post che creavano il maggior numero di interazioni al solo scopo di creare traffico, indipendentemente dalla verità o meno dei post stessi, ne è un esempio. Quindi quando inizieremo ad usare il metaverso, stavolta, ricordiamoci fin dall’inizio che saremo noi a creare il nostro futuro mondo virutale. Sarà diverso il metaverso o diventerà l’ennesimo spazio dove si rifugeranno le persone per scappare alla realtà? A noi la scelta!

 

BIBLIOIGRAFIA
Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994.
Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995
https://www.nasa.gov/ames/spinoff/new_continent_of_ideas/
Ultima consultazione dicembre 2021
https://news.microsoft.com/it-it/2021/11/02/il-microsoft-cloud-protagonista-a-ignite-2021-metaverso-ai-e-iperconnettivita-in-un-mondo-ibrido/
Ultima consultazione dicembre 2021

 

1 View-Master è stato un sistema di visione stereoscopica inventato da William Gruber e commercializzato per prima dalla Sawyer's nel 1938. Il sistema comprende: un visore stereoscopico, dischetti montanti 7 coppie di diapositive stereo, proiettori, fotocamere (Personal e MKII) e altri dispositivi per la visione o la ripresa di immagini stereoscopiche.
2 Il Power Glove è un controller nato per il NES del 1989. Fu sviluppato dalla Mattel, ma il progetto si ispirò a un’invenzione di Tomm Zimmerman, che realizzò una periferica per l’interfacciamento a gesti manuali basata su un guanto cablato a fibre ottiche. L’idea di Zimmerman venne addirittura finanziata dalla NASA. La Mattel sviluppò questa periferica ma utilizzando tecnologie molto meno recenti, per rendere il Power Glove economico e più robusto.
3 L’interfaccia per collegare il power glove al PC tramite interfaccia parallela venne sviluppata da Mark Pflaging

  ► Ricette

Arrosto maiale al pompelmo rosa e prosciutto
Arrosto-maiale-al-pompelmo-rosa-e-prosciutto
Il sapore ed il profumo del pompelmo rosa si mescola benissimo con il grasso della carne di maiale.

Avvolgere l’arista di maiale con le fette di prosciutto e legarle bene con dello spago.
Spremere il pompelmo e tagliare alcune fettine della buccia a listarelle eliminando la parte bianca.
Tagliare i cipollotti a fettine e metterli in una padella dal bordo alto con il burro e far soffriggere leggermente.
Mettere l’arista avvolta nel prosciutto nella padella e far rosolare su tutti i lati, quindi fumarla con il vino ed il brandy.

Dopo qualche istante togliere dal fuoco e mettere in una pirofila da forno e coprirla con il succo di pompelmo e i rametti di rosmarino. Coprire la pirofila con l’alluminio e mettere in forno a 180° per una 15 di minuti.

Passato il tempo togliere l’alluminio e rimettere in forno per circa 15 minuti stando attenti che non si asciughi troppo il sughetto. Nel caso accada bagnare con del brodo.

Sacchettini ripieni su crema di zafferano e funghi
Sacchettini-ripieni-su-crema-di-zafferano-e-funghi
Sacchettini ripieni su crema di zafferano e funghi non sono altro che delle crespelle salate più piccole del normale, chiuse a formare dei sacchettini e ripiene di uno squisito ragù bianco. Il tutto viene accostato ad una deliziosa crema di zafferano e funghi trifolati.
Dosi per 2 persone

Preparare il ripieno:
Tritare il manzo il più finemente possibile con il tritatutto o uno strumento analogo. In una pentola mettere il cipollotto tagliato a pezzettini piccoli con un filo d’olio e far soffriggere, aggiungere la carne tritata, far abbrustolire leggermente quindi bagnare con il vino e lasciare evaporare. Aggiungere la passata di pomodoro, le bacche di ginepro ed aggiustare di sale e pepe. Abbassare la fiamma e lasciar cuocere per circa 2 ore a fuoco lento, se il sugo dovesse asciugarsi troppo aggiungere un poco di brodo lentamente.

Sacchettini ripieni su crema di zafferano e funghiSacchettini ripieni su crema di zafferano e funghi

Preparare le Creppes:
Sbattere le uova e mescolarle insieme con una frusta a mano, aggiungere lentamente farina e latte e  continuare a mescolare con la frusta fino a creare un impasto liscio e senza grumi. 
Scaldare una padella antiaderente con un pezzettino di burro distribuendolo bene il burro su tutto il piatto della padella, quando è sciolto bene versare piano piano un po’ di impasto (1/2 mestolo circa) e cuocere da entrambi i lati in modo da ottenere dei dischi di circa 12-15 centimetri di diametro.
Mettere le mini crespelle così ottenute da parte in un piatto in attesa che il sugo sia pronto.
Quando il sugo sarà pronto farlo raffreddare.
Una volta che il ripieno si sarà raffreddato stendere le mini crespelle e deporre al centro di ognuna un po’ di ripieno e chiuderle con del filo da cucina. Fare attenzione a non riempirle troppo altrimenti si potrebbero rompere.

Sacchettini ripieni su crema di zafferano e funghiSacchettini ripieni su crema di zafferano e funghi

Preparare la crema di zafferano:
Sbucciare la patata e tagliarla a dadini. Sminuzzare il mezzo cipollotto e metterlo in una pentola con dell’olio d’oliva e la patata. Far soffriggere quindi aggiungere il latte ed i funghi trifolati (si possono utilizzare sia quelli compri che preparali da sé) e lo zafferano. Cuocere a fuoco lento per circa 10 – 15 minuti, fino a quando i dadini delle patate non si saranno ammorbiditi. Se il composto dovesse asciugarsi troppo aggiungere un poco di brodo. Correggere di sale e pepe a piacimento. Quando le patate si saranno ammorbidite tritare il tutto con il minipimer e lasciare a cuocere.

Sacchettini ripieni su crema di zafferano e funghiSacchettini ripieni su crema di zafferano e funghi

Assemblare il piatto.
Scaldare i sacchettini nel microonde o nel forno elettrico ( è consigliabile utilizzare il microonde che cuoce tutto in maniera uniforme) quindi disporli nel piatto insieme ad un poco di crema di zafferano e funghi calda.
Una variante sarebbe quella di disporre i saccottini direttamente  sopra la crema di zafferano.
Capesante su letto di zucchine e menta.
Capesante-su-letto-di-zucchine-e-menta-
Dose per 4 persone.
Infarinare leggermente le capesante, quindi metterle a rosolare nel burro per circa 5 minuti.
Tagliare le zucchine a pezzettini, tritare lo picchio d’aglio e la menta. Soffriggere l’aglio e la menta con un poco d’olio, aggiungere le zucchine e cuocere, sale e pepe.
Quando sono cotte scolare le zucchine e schiacciarle con la forchetta, quindi metterle dentro le conchiglie delle capesante, depositare sopra il mollusco.
Scaldare in un pentolino una noce di burro e sfumare con il vino e brandy per un paio di minuti. Versare il tutto sopra le conchiglie e infornarle per circa 10 minuti a forno preriscaldato a 200°.

  ► Gallery

2020 -2021 (113)
2020 -2021
Primavera Estate 2020 (83)
Primavera Estate 2020
Inverno2019-20 (25)
Inverno2019-20

  ► Curiosità

Entropia
Entropia

L’entropia, conosciuta anche come “secondo principio della termodinamica”,  è una funzione di stato ed è una delle proprietà fisiche più importanti.
Le definizioni che si possono trovare sono molte:


  1. 1. L’entropia è il disordine di un sistema, che è la più famosa,  può andare bene se prima si definisce cosa si intende per disordine.
  2. 2. L’entropia è la quantità di calore sprecato nel compiere un lavoro
  3. 3. La tendenza dei sistemi chiusi ed isolati ad evolvere verso uno stato di massimo equilibrio
  4. 4. L’entropia è un modo per sapere se un determinato stato è raggiungibile da un sistema per mezzo di una trasformazione naturale e spontanea.
  5. 5. S= K log W, dove K è la costante di Boltzmann e w rappresenta tutte le possibili configurazioni di un microsistema in un macrosistema
  6. 6. ΔS= Q/T, dove ΔS è la variazione di entropia di un sistema, Q è il calore interno del sistema e T è la temperatura

L’entropia è indicata con la lettera S in onore di Nicolas Léonard Sadi Carnot
Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire) e non è da considerare il padre ti tale aereo (come affermato dalla trasimissione RAI “Presa Diretta” del febbraio 2013). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)

  ► Aerei del giorno

Tupolev Tu-142
Tupolev Tu-142 Tipo: Aereo per la lotta antisommergibile e per il pattugliamento marittimo
Ruolo: Lotta Antisom, Antinave
Nazione di Origine: URSS
Armamento: 2 cannoni Gryazev-Shipunov GSh-23 da 23 mm, nella torretta di coda. Siluri AT-1, AT-1M, AT- 2, AT-2M. Missili APR-1, APR-2. Bombe di profondità (sia con cariche convenzionali che con cariche nucleari)

Prestazioni: Velocità massima 855 km/h. Autonomia 12000 km. Tangenza 13500 m
Beriev Be-10
Beriev Be-10 Tipo: Idropattugliatore marittimo
Ruolo: Ricognizione, Lotta Antisom, Antinave
Nazione di Origine: URSS
Armamento: 4 cannoni Makarov AM-23 calibro 23 mm. Bombe FAB-250, FAB-3000. Siluri RAT-52

Prestazioni: Velocità massima 910 km/h. Velocità di crociera 785 km/h. Autonomia 3150 km. Tangenza 12500 m
Kawasaki C-1
Kawasaki C-1 Tipo: trasporto tattico
Ruolo: Trasporto, Trasporto Tattico, Guerra Elettronica
Nazione di Origine: Giappone
Armamento: Nessuno

Prestazioni: Velocità massima 806 km/h. Velocità di crociera 657 km/h. Velocità di salita 17,8 m/s. Autonomia 3350 km. Tangenza 11580 m

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Photoshop CC v.14 con esempi
Photoshop CC v.14 con esempi
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.