Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Magazine

Quando L’irreale Diventa Reale
Quando L’irreale Diventa Reale

Ci risiamo!
Già a luglio 2020 iniziava  a girare sui social network la notizia di un “fantomatico” Jonathan Galindo che convinceva i bambini ad accettare sfide sempre più pericolose fino a portarli al suicidio. Una cosa simile l’avevamo già vista nel 2017 quando un servizio del programma TV “Le Iene” aveva parlato di una sfida nata in Russia tra i giovani che arrivava fino a spingerli al suicidio e che  prendeva il nome di Blue Whale. Dopo che i video presentati furono smascherati come falsi e per nulla attinenti al fenomeno  venne fuori che tutta la storia non esisteva e che si trattava di una creepypasta1 ma, purtroppo, la stampa aveva cavalcato l’onda e ancora oggi esistono persone che credono che il Blue Whale Challenge fosse vera, anche perché con il diffondersi della notizia iniziarono molti fenomeni di emulazione.

Il personaggio di Jonathan Galindo non è una novità di questi ultimi mesi ma nasce, anche lui, nel 2017 quando per la prima volta la versione messicana della piattaforma di notizie social (o giornalismo sociale come viene definito dai suoi creatori) Blasting News riporta la presenza in rete di svariati profili con l’immagine di un uomo con una strana maschera che ricorda vagamente il Pippo della Disney ma con un atteggiamento minaccioso ed inquietante che risponde al nome di Jonathan Galindo. Secondo quanto riportato dalla testata questo personaggio si divertiva a fare filmati porno vestito in modo stravagante sempre indossando la sua strana maschera per poi diffonderli nel web.
Chiunque conosce il sito Blasting News sa quanto poco siano affidabili le notizie diffuse, dato che gli articoli vengono scritti dagli stessi lettori e pubblicati senza nessuna verifica dei fatti, anzi, più un articolo o un autore è seguito più viene riconosciuto dalla testata.
La figura che viene associata a Galindo, in realtà, è stata creata da un video maker americano che utilizza lo pseudonimo di Sammy Catnipnik nel 2012 e che, nel suo profilo twitter, spiega le origini del personaggio: ”…Le foto e i video sono miei, del 2012-2013. Erano per il mio bizzarro piacere personale, non per qualche cacciatore di brivido dei giorni nostri che cerca di spaventare e bullizzare la gente…”. In effetti la maschera creata da Carnipnik fu utilizzata per creare alcuni video porno online ma tutto finisce qui … O almeno così si sperava.
Un influencer, sempre messicano, che risponde al nome di Carlos Name, nel giugno del 2020, racconta di una figura che ricorda il famoso Pippo della Disney (Jonathan Galindo) che si aggirava fuori dalla casa, di aver sentito strani rumori e che, in fine, l’uomo mascherato avrebbe fatto irruzione in casa sua aggredendolo. Name che conta circa 1.700.000 followers su Instagram è famoso per trattare argomenti paranormali come ufo, fantasmi e chi più ne ha più ne metta come se fossero veri, vantandosi anche di improbabili incontri con queste fantastiche figure. Dopo questo rilancio (che chiaramente è una bufala) la figura di Jonathan Galindo ha iniziato a diffondersi e iniziano a nascere profili sui social con persone che vogliono emularlo oppure semplicemente spaventare gli amici e, purtroppo, anche qualche atto di stalking o aggressione reale dove l’aggressore era mascherato da Galindo.  Dal sud America il tam tam mediatico si sposta prima in India per arrivare infine in Europa.

In Italia, a lanciare la notizia del pericolo di questa nuova sfida tra gli adolescenti è il giornale “Il Resto del Carlino” nel luglio 2020 con una serie di articoli dai titoli evocativi quali “Jonathan Galindo, la folle sfida. Un gioco all’autolesionismo” oppure ”Jonathan Galindo, il folle 'gioco'. Nuove denunce e genitori in allarme”. Negli articoli si fa riferimento ad allarmi lanciati da alcuni genitori e da alcuni ragazzi, nonché di denunce fatte da questi alle forze dell’ordine e ricordando che in Spagna gli eventi legati a Galindo sono stati molto numerosi. L’articolo finisce segnalando che “Ora purtroppo Galindo è arrivato anche in Italia “ e che non si registrano ancora fenomeni di lesionismo tra i ragazzi ma che la guardia è alta.  
La polizia postale (che si occupa di reati collegati al web), dal canto suo, il 9 luglio aveva si aperto una segnalazione di allerta sulla sua pagina web e sul suo profilo Facebook per poi ritirarla qualche giorno dopo a seguito delle indagini che non avevano rilevato fenomeni di autolesionismo tra i giovani in Italia.
Purtroppo adesso i media hanno iniziato a cavalcare l’onda Galindo e il tragico suicidio dell’undicenne a Napoli pochi giorni fa ha portato moltissime testate e telegiornali ad associare la lettera lasciata dal bambino a un possibile Jonathan Galindo, sebbene non vi siano prove di questo.

I toni sensazionalistici utilizzati dai vari media e le fake news rilanciate da siti e profili social di influencer ai quali importa solamente avere visibilità portano a travisare il vero pericolo: non bisogna avvisare i ragazzi di non accettare l’amicizia da Jonathan Galindo, ma bensì da chiunque non si conosca, proprio come una volta si insegnava a non dare confidenza agli sconosciuti e ricordando ai bambini e agli adolescenti di evitare di condividere informazioni personali online.
Continuando a rilanciare l’esistenza di un personaggio come Galindo i media rischiano di portare anche in Italia alla nascita di fenomeni di emulazione, proprio come è accaduto a suo tempo con il Blue Whale Challenge che, pur non essendo una cosa reale si è trasformata in qualcosa di pericolosamente reale,  mentre challenge che sono reali e pericolose come la “Fire Challenge”, la “Kiki Challenge” o il ”Knockout game”, che in Italia nel 2014 ha anche fatto una vittima, vengono trascurate.
Purtroppo sempre più i giornalisti stanno diventando simili a influencer che cercano la visibilità anziché la verità così, a breve, il personaggio di Jhonathan Galindo assurgerà al panteon dei mostri dell’immaginario collettivo insieme a Slenderman, SCP-173, Jeff the Killer ed altri.
Una volta i mostri li creava il cinema, così personaggi come Jason di “Venerdì 13”, Freddy Krueger di “Nightmare‎”, Pinhead di “Hellraiser” o Leatherface di “Non aprite quella porta” spaventavano intere generazioni ma rimanevano confinati nel reame dell’immaginario e dell’irreale, mentre adesso i mostri creati dal Web hanno da fastidiosa abitudine ad emergere nel mondo reale e diventare veri grazie alla massificazione che porta inevitabilmente all’emulazione.

 

1Una Creepypasta è un racconto breve e originale che nasce per terrorizzare e provocare shock nel lettore ispirati solitamente ai racconti di internet o leggende metropolitane, diffusi nei forum tramite il copy&paste (copia ed incolla).

Immuniflop
Immuniflop

Forse troppo tardi il ministero della salute ha iniziato una campagna di marketing “aggressiva” per incentivare gli italiani non solo a scaricare, ma soprattutto ad utilizzare l’app Immuni.
Questa applicazione nasce in un momento nel quale l’Italia era in fase di uscita dall’emergenza Covid-19, sebbene fosse stata pensata in piena crisi, ed ha sofferto sicuramente di una campagna di marketing sbagliata e di una disinformazione che ha invece approfittato della paura delle persone sul rispetto della propria privacy per trasformare una crisi in campagna politica.

Inizialmente, quando si è parlato di creare un app per il tracciamento dei contagi, l’idea che ne ha avuto l’uomo della strata è stata quella del software sviluppato in sud Corea “Corona 100m”, che traccia tutti gli spostamenti di un individuo  e che non garantisce un livello di privacy adeguato agli standard europei.
Certo l’app Coreana ha dimostrato la sua efficacia nel prevenire la nascita di nuovi focolai, ma il prezzo da pagare è stato alto e nei paesi occidentali una simile soluzione risulta impensabile.
In Italia, da subito, le polemiche si sono focalizzate non tanto sul’utilità di una app ma su come questa avrebbe potuto garantire il rispetto della privacy degli utilizzatori  (sebbene questi stessi utenti, spesso e volentieri,  non si fanno alcuno scrupolo a pubblicare ogni sorta di dato personale sui social) e, in un mondo dove il complottismo è sempre più incalzante la promozione di un simile software e la rassicurazione, era la prima cosa da fare. Invece, fin dalla sua nascita, la comunicazione sull’app Immuni è stata sempre confusa e poco chiara partendo dalla gara di appalto per arrivare alle tecnologie utilizzate: l’azienda Bending Spoons che ha vinto l’appalto per la creazione dell’app fa infatti parte del consorzio europeo PEPP-PT.

 Il Pan-European Privacy-Preserving Proximity Tracing  è un progetto no profit che nasce con l’intenzione di assistere le varie nazioni che intendono sviluppare software per il tracciamento ed il contenimento di infezioni (non  solo il Covid-19) e fornire degli strumenti che consentono il tracciamento dei contagiati ed utilizzare dei metodi standard per l’interoperabilità dei dati, non solo all’interno dello stato che ne sviluppa il software ma, eventualmente, anche con altri stati, il tutto cercando di mantenere al massimo la privacy dell’utilizzatore. Il fatto che oltre a Bending Spoons anche altre grandi società multinazionali (come ad esempio vodafone) siano partner del consorzio e che il modello proposto sia, pur mantenendo la privacy,  centralizzato aveva dato adito a molti dubbi sull’effettiva sicurezza dei dati trattati.
Ad aprile Bending Spoons decide di abbandonare il progetto PEPP-PT per lo sviluppo dell’app Immuni a favore del modello decentralizzato proposto da Google ed Apple e questo cambiamento di rotta, contestualmente al fatto che non ci si appoggia più ad una idea no-profit  ma ad un progetto di due colossi privati della new economy ha fatto aumentare le voci  in rete sulla sicurezza dei dati trattati ed il loro anonimanto, sebbene l’idea di Google e Apple si basa su di un modello decentralizzato e più rispettoso della privacy, dove la corrispondenza tra i contatti si svolge sui telefoni dei singoli utilizzatori,  anziché su di un server centrale.
Il 15 giugno 2020, dopo un periodo di sperimentazione in diverse regioni e uno strascico di polemiche, l’app Immuni viene immessa negli app store di Google e Apple con la speranza che almeno il 60% della popolazione italiana la scarichi e la utilizzi affinché sia funzionale al suo scopo. Purtroppo a quasi tre mesi dalla sua uscita solamente uno smartphone su sette, ovvero circa il 14% della popolazione italiana, ha scaricato l’app. Dati decisamente poco incoraggianti e che rischiano di trasformare l’idea in un flop.

Ma perché così poche persone hanno deciso ti utilizzare Immuni?
Sicuramente, come abbiamo detto, la poca informazione ed alcuni errori fatti in buona fede sulla spiegazione del funzionamento dell’App sono stati tra i responsabili di questo flop.
Immuni utilizza per il tracciamento dei contatti avuti la tecnologia Bluetooth Low Energy che, a differenza del bluetooth classico, è progettato per fornire un consumo energetico notevolmente inferiore. Questa tecnologia consente alle app che lo utilizzano di comunicare con dispositivi bluetooth low energy che hanno requisiti di alimentazione più rigidi quali smartwhatch, sensori biometrici, dispositivi per il fitness, eccetera.

Attraverso il bluetooth Immuni rileva il contatto tra due telefoni se avviene a meno di un metro e per un periodo superiore a 15 minuti (le specifiche della distanza e del tempo sono state fornite allo sviluppatore dell’app dal ministero della salute). Ogni telefono che ha installato l’app genera una stringa alfanumerica anonima, una sorta di ID, che viene scambiata con gli altri telefoni se si supera la distanza ed il tempo predefinito. Nel momento in cui una persona si ammala invia il codice al server centrale che smista la lista con le stringhe dell’ identificativi contagiati a tutti i telefoni della rete. A questo punto i singoli smartphone, tramite l’app Immuni hanno il compito di calcolare, per ogni identificativo, il rischio di esposizione all'infezione sulla base di parametri come la vicinanza fisica e il tempo,  generando una lista degli utenti più a rischio.
Niente geolocalizzazione quindi (come invece accade per l’app Sud Coreana) e nessun pericolo di trasmettere dati sensibili o che permettano di risalire ad un singolo utente, dato che il server centrale non è mai a conoscenza degli incontri intercorsi tra gli utenti, ne di chi essi siano.
Per rassicurare gli utenti, inoltre, Bending Spoons ha deciso di pubblicare sulla piattaforma GitHub i codici sorgenti dell’app sia per quanto riguarda il tracciamento dei contatti che l’elaborazione, in modo da rendere tutto il più trasparente possibile.

Purtroppo, come spesso succede, i progetti che sulla carta sembrano perfetti si devono scontrare con la realtà: se è vero che l’app Immuni non utilizza il GPS del telefono per tracciare gli spostamenti dell’utente sulla piattaforma Android, dalla versione 6 (che è quella minima richiesta), per poter per accedere agli identificatori hardware dei dispositivi esterni nelle vicinanze tramite scansioni Bluetooth o scansioni Wi-Fi, le app devono disporre delle autorizzazioni ACCESS_FINE_LOCATION o ACCESS_COARSE_LOCATION e quindi attivare il sistema di posizionamento globale. 
La notizia diffusa dai giornali presso l’utente comune (gli sviluppatori software ne erano già al corrente) di questa necessità da parte del sistema Android ha portato molti utenti a dubitare sulla reale protezione della privacy da parte di Immuni.

La nuova campagna di marketing lanciata dal ministero della salute e che utilizza i classici canali televisivi e volti noti dello show business, ha lo scopo di convincere il maggior numero di italiani a scaricare e utilizzare immuni visto che, ad oggi, sebbene Immuni non sia stata scaricata da un numero sufficiente di utenti dal 13 luglio sono state inviate 809 notifiche agli utenti che hanno la utilizzano e bloccando almeno quattro potenziali focolai.
Purtroppo questo tipo di marketing potrebbe non essere sufficiente: noi italiani siamo un popolo complicato e, come con le mascherine, fino a quando non sono state rese obbligatorie,  molti si sono sempre rifiutati di utilizzarle.  Purtroppo per l’app non è così facile e obbligare gli utenti a scaricarla, anzi aumenterebbe i malcontenti in quella parte della popolazione che viene definita “complottista”.
L’approccio migliore sarebbe creare una situazione simile a quella che negli anni si è sviluppata con i social network come Instagram o Facebook: “…non li uso, ma tutti i miei amici li usano, così mi vedo costretto ad utilizzarli anch’io per non essere digitalmente escluso dal gruppo.”. Ecco che a quel punto tutti i dubbi sulla privacy andrebbero a sparire visto che la maggior parte di chi critica Immuni non ha alcuna remora a pubblicare sui social network dati anche sensibili.
Certo la privacy al 100% non è e non sarà mai garantita, se si legge la guida per sviluppatori google nella sezione bluetooth-le si legge: “Caution: When a user pairs their device with another device using BLE, the data that's communicated between the two devices is accessible to all apps on the user's device”; così accade che come per il GPS anche per i dati trasmessi tra dispositivi è vero che l’app  non va a utilizzare i dati del sensore ma altre app potrebbero e, se disabilito il bluetooth o il GPS, Immuni diventa inutile.
Bisogna quindi decidere se rinunciare ad un pizzico di privacy e paure per essere più protetti o tenersi la privacy ma avere un maggior rischio di ammalarsi.


Bibliografia:

https://developer.android.com/guide/topics/connectivity/bluetooth-le
https://developer.android.com/about/versions/marshmallow/android-6.0-changes.html#behavior-hardware-id
https://www.immuni.italia.it/
http://www.salute.gov.it/
L’opportunità Dei Big Data
L’opportunità Dei Big Data

Nel 1997 esce il secondo libro della "Trilogia del Ponte" di William Gibson, Aidoru, dove è presente il personaggio di Colin Laney, un netrunner che ha la capacità di individuare i punti nodali in un insieme di dati casuali di informazioni. Apparentemente controcorrente in un momento nel quale i media davano internet per finito (nel 1997 avevano chiuso quasi 5 milioni di siti web) il libro di Gibson anticipava il futuro e, soprattutto, anticipava il concetto di Big Data e del poter estrapolare dati ordinati da un insieme di questi che appare caotico.

Cosa si intende per Big Data.
Ad oggi, ogni sessanta secondi, vengono generati più di 350.000 tweet, su facebook vengono caricate circa 243.000 immagini e 70.000 ore di video, su google sono fatte quasi 4 milioni di ricerche e 500 mila sono le app scaricate dai vari store. Tutto questo insieme di dati non va mai perso ma viene immagazzinato dai fornitori di servizi per essere analizzato e utilizzato; la combinazione del volume di dati e della velocità con la quale è generato prende il nome di Big Data.
Ma parlare di big data solo per trattare dei dati internet generati dagli utenti è limitativo, anche i navigatori satellitari generano dati che vengono inviati ad aziende private che li elaborano, i sensori delle automobili o delle case sempre più smart generano dati che vengono inviati ed analizzati dalle aziende. Abbiamo quindi, oltre che una grande quantità di dati inviati a grande velocità anche una grande varietà di essi che sono apparentemente disomogenei.
Non bisogna quindi confondere il concetto di Big Data con quello di database. Se un database tradizionale, infatti, può gestire tabelle magari composte di milioni di righe, ma al massimo su poche centinaia di colonne, quando parliamo di Big Data ci riferiamo a strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne, dove i dati non sono strutturati in maniera omogenea come ad esempio meta dati, posizioni geografiche, valori rilevati da sensori e quasi sempre destrutturate.
Possiamo dire quindi che la definizione di Big Data è composta da tre "V": Volume di dati, Velocità con la quale sono generati e Varietà, di informazioni che apparentemente non vogliono dire nulla e che, soprattutto per la loro disomogeneità non sembrano avere correlazioni logiche nel modo di pensare classico ma la somma di queste tre V, come risultato, dà un'altra V: il Valore che è considerato l'aspetto più importante dei big data e che si riferisce al processo di individuazione di un elevato valore nascosto all'interno di un gran numero di dati (chiamato peso). Nell'analisi di questo tipo di dati è quindi fondamentale valutarne la veridicità e la qualità affinché possano effettivamente generare valore.

Quale utilizzo viene fatto dei dati?
Iniziamo subito a dire che questa grande quantità di informazioni in così poco tempo (parliamo solitamente di almeno un petabyte per arrivare a diversi yottabyte di dati) viene analizzata ed utilizzata in maniera differente a seconda dell'azienda o ente che se ne occupa. Tutti noi sappiamo l'uso che ne viene fatto nell'ambito del marketing da aziende quali Amazon o Google per il così detto "metodo della raccomandazione" per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri: tutti i dati di un cliente, navigazione, ricerche, acquisti, eccetera, vengono analizzati e messi in relazione con quelli di milioni di altri utenti per cercare un modello di comportamento comune e suggerire un acquisto che solletichi l'interesse di chi sta navigando nel sito. Ma gli algoritmi non si limitano solo a questo: in base alle ricerche riescono a scoprire se, ad esempio, la persona che sta navigando in quel momento sia uomo o donna, se ha figli, animali domestici, nel caso, ad esempio, di una donna se è incinta e suggerirle, in questo caso, anche possibili acquisti per il futuro e/o coupon; il tutto apparentemente in maniera casuale. Anche le agenzie di carte di credito possono sfruttare le informazioni sugli acquisti che vengono fatti online per predire se un acquirente sia affidabile o meno: secondo alcune analisi, ad esempio, le persone che comprano i feltrini per i mobili rappresentano i clienti migliori per gli istituti di credito, perché più attenti e propensi a colmare i propri debiti nei tempi giusti. Quindi da un punto di vista del marketing puro l'analisi interpretativa dei dati è quella metodologia che dà valore ai big data tramite la quale le aziende possono trovare benefici come aumento delle vendite, miglior soddisfazione del cliente, maggiore efficienza, eccetera.
L'ambito di utilizzo dei Big Data, per fortuna, non si limita solamente al settore commerciale, ma può espandersi in una grandissima varietà di campi.
Un primo esempio che possiamo considerare è Ireact, il risultato di un progetto europeo triennale che ha sviluppato la prima piattaforma europea per integrare i dati di gestione delle emergenze provenienti da più fonti, tra cui quelli forniti dai cittadini attraverso i social media e il crowdsourcing1 .
Il sistema, come abbiamo detto, processa diverse fonti di informazioni come le immagini satellitari, le foto pubblicate dagli utenti sui social media, lo storico degli eventi accaduti in un determinato territorio, dati rilevati dai sensori dell'Internet of things, per poter aiutare a decidere quale strategia attuare in caso di calamità o di un evento catastrofico su un territorio e guidare in tempo reale le persone che prestano soccorso, creando nuove mappe mentre la situazione cambia, indicare quale azione operare in un determinato contesto, eccetera.
Nell'ambito della lotta alla criminalità l'utilizzo dei Big Data trova la sua attuazione nel programma Sirio al quale partecipano UNICRI, la Direzione Nazionale Antimafia ed il CERN e del quale l'Italia rappresenta uno dei principali partner per quanto riguarda l'elaborazione e la fornitura dei dati. Su Sidna, la piattaforma digitale del D.N.A., infatti, vengono memorizzati tutti i procedimenti antimafia e antiterrorismo italiani formando un database che contiene oltre due milioni di nominativi. Per fare un esempio Europol ne contiene solo 90.000 e Interpol 250.000. Ma a fare la differenza non è solo la quantità di dati presenti ma anche la qualità in quanto tutte le informazioni inserite provengono dalle direzioni distrettuali antimafia e quindi hanno un altissimo livello di attendibilità; le ultime 180 operazioni contro la criminalità organizzata nel nostro paese (dati relativi a marzo 2020) hanno avuto origine dall'analisi e l'incrocio dei Big Data. Alla base del processo che permette di trovare delle correlazioni tra i dati presenti in questo database vi sono gli strumenti di visual analytics ideati dal professor Daniel Kime dell'Università di Costanza; questi procedimenti combinano le informazioni semantiche specifiche del dominio di appartenenza con concetti astratti dei dati estratti e di visualizzarne i risultati sotto forma di reti. In questo modo possono emergere relazioni tra un mafioso ed un prestanome oppure tra un criminale ed il tipo di bene confiscato. Lo strumento che permette tutto questo si chiama Colaboration Spotting e, inizialmente, era nato per scopi scientifici mentre il suo uso, in questo campo, è quello di permettere alla Direzione Nazionale Antimafia di prevedere le future strategie criminali attraverso lo studio dei modelli organizzativi dei loro protagonisti.

Dagli algoritmi al deep learning
Nell'ambito scientifico l'utilizzo dei big data sta creando delle nuove opportunità ed anche degli scontri.
Secondo il fisico Chris Anderson la grande quantità di dati, combinata adeguatamente ad appropriate tecniche statistico-matematiche sarebbe in grado di soppiantare ogni altro strumento analitico, rendendo il metodo scientifico obsoleto. Anderson sostiene che nell'era del petabyte la correlazione possa sostituire la causalità e quindi dare la possibilità alla scienza di proseguire senza bisogno di modelli coerenti, teorie unificate o altre spiegazioni meccanicistiche: in pratica le congetture e le confutazioni saranno sostituite da "risposte" che emergeranno da sole dall'insieme di dati.
Se questo si realizzasse avremmo una nuova metodologia di ricerca che andrebbe ad aggiungersi a quelle già esistenti: il metodo sperimentale in vigore dai tempi di Galileo, il metodo matematico che ha permesso di analizzare la fisica quantistica e relativistica ed il metodo computazionale, che fa largo uso di simulazioni numeriche.
Affinché questa nuova metodologia possa svilupparsi i ricercatori fanno largo uso dell'apprendimento automatico, un metodo che utilizziamo normalmente tutti i giorni senza saperlo: gli assistenti vocali di Google, Amazon ed Apple, che hanno raggiunto livelli quasi umani di accuratezza, non fanno più uso di regole impartite da un programmatore, ma costruiscono in autonomia un modello del sistema che devono emulare attraverso l'analisi statistica di un ampio insieme di dati.
Anche se non utilizziamo gli assistenti vocali avremmo sicuramente utilizzato un chatbot che non è altro che un algoritmo capace di interloquire con una persona in modo sensato senza conoscere il significato delle parole o non capendo il significato del discorso ma solamente utilizzando milioni di conversazioni come esempi.
Gli algoritmi di deep learning, che si stanno facendo sempre più sofisticati, fanno viaggiare le informazioni verso una rete composta da milioni di nodi. Ogni nodo si accende in base a dei segnali che riceve dai vicini ed i segnali sono analizzati in base al "peso" (importanza) che hanno nella connessione dove viaggiano: una connessione con peso maggiore ha una probabilità maggiore di far cambiare lo stato del nodo dove arriva. Una volta identificati milioni di numeri viene creato un modello del problema (ad esempio in medicina permette di identificare un tumore in un insieme di pixel) e un programma è in grado di risolverlo, pur non sapendo nulla dell'ambito di sviluppo del problema (come i chatbot), il tutto tramite il deep learning e l'analisi dei Big Data.
Non tutti sono però d'accordo con queste idee. Il fisico Poincaré diceva "La scienza è fatta di dati come una casa è fatta di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una casa". I dati, infatti, sono sì in grado di trasmettere contenuti ma i risultati possono essere influenzati dalla lettura che se ne dà e da come vengono correlati tra di loro. I modelli di apprendimento, ad oggi, indipendentemente dalla loro complessità, sono in grado di interpolazioni efficaci tra i dati analizzati ma l'estrapolazione di questi ultimi non supererà mai il loro livello di addestramento; secondo il matematico Edward R. Dougherty questi algoritmi non sono in grado di spiegare le correlazioni che trovano e distinguere tra falsi positivi e non, come la famosa ricerca che correlava i divorzi nel Maine ed il consumo di margarina tra il 2000 ed il 2009. Come esempio delle sue teorie Dougherty porta sempre la teoria generale della relatività, la quale non sarebbe mai potuta essere prodotta dall'estrapolazione dei Big Data solamente.

Quale presente e quale futuro?
Il nostro futuro passa anche dai big data e probabilmente i detrattori hanno in mente solamente l'utilizzo che ne viene fatto da parte delle grandi agenzie che lo utilizzano per il marketing, mentre pochi pensano che stanno nascendo delle nuove figure professionali specializzate nel settore come i Data Scientist, il Data Engineer o il Data Analyst e si prevede un mercato di 5 milioni di posti di lavoro in crescita.
Da un punto di vista puramente scientifico la possibilità di elaborare sempre più dati e sempre più velocemente creando associazioni porterà a "intelligenze artificiali" sempre più sofisticate che troveranno la loro collocazione nella vita di tutti i giorni. Pensiamo ad esempio alla difficoltà di un'auto a guida autonoma che deve decidere se un pupazzo di neve possa o meno attraversare la strada: la possibilità di comparare migliaia di informazioni che provengono dai sensori delle altre auto, compararli con migliaia di immagini presenti in rete e decidere che il pupazzo di neve non può attraversare la strada perché non è un uomo sarà possibile grazie ai Big Data.
Nel 2008 un progetto di Google permise di prevedere l'avanzamento dei focolari di influenza negli USA solamente analizzando i gruppi di termini cercati sul suo motore di ricerca più velocemente di quanto poté fare il ministero della salute analizzando i dati di immissione ospedaliera. Pensiamo a come potrebbe essere stato utile un utilizzo appropriato dei dati nell'analizzare l'evoluzione del COVID-19 nel mondo.
Certo rimane il problema di quanta privacy perdiamo ma a pensarci stiamo già rinunciando alla nostra privacy ogni volta che postiamo una foto o condividiamo un pensiero, quindi meglio perderla per avere dei vantaggi che perderla solo per avere della pubblicità in più.

 


Bibliografia:
Prisma N.17, marzo 2020, "I Big Data, contro il crimine organizzato", pp.38-41
Prisma N.3, dicembre 2018, "Big Data, come costruire modelli teorici in automatico?", pp.32-37
I-React, http://project.i-react.eu/
Youtube, 14 marzo 2018, conferenza "Elena Baralis, La nuova scienza dei dati: la sfida dei big data"
Youtube, Novembre 2014, "Analyzing and modeling complex and big data, Professor Maria Fasli, TEDxUniversityofEssex"

1 crowdsourcing è la richiesta di idee, suggerimenti, opinioni, rivolta agli utenti di Internet da un'azienda o da un privato in vista della realizzazione di un progetto o della soluzione di un problema.

  ► Ricette

Tagliatelle con crema di piselli
Tagliatelle-con-crema-di-piselli
Ricetta per due persone
Preparare circa 200gb di brodo.
In una padella far sciogliere il burro con uno spicchio d’aglio e lasciarlo dorare. Aggiungere i piselli, salarli e lasciate saltare, quindi aggiungete il brodo e cuocere per circa 20 minuti o fino a quando i piselli si saranno ammorbiditi. 
Quando i piselli sono cotti frullarli con un mixer ad immersione e metterli in una padella con un po’ di brodo a cuocere a fuoco lento mentre si cuociono le tagliatelle (se la crema si dovesse asciugare troppo aggiungere un po’ di acqua di cottura).
Tagliare i pomodorini a pezzettini.
Cuocere le tagliatelle in una pentola d’acqua calda salata, scolarle e versarle nella padella con la crema di piselli e metà ricotta, quindi  mescolarle.
Impiattare le tagliatelle ancora clade con i pezzettini di pomodori e la ricotta rimasta.
Servire subito e mangiare caldo.

Gnocchi gratinai ai formaggi
Gnocchi-gratinai-ai-formaggi
Bollire 450gr di Patate. Quando si saranno cotte ed ammorbidite sbucciarle e metterle in un contenitore, quindi schiacciarle fino a farne una purea.
A questo punto aggiungiamo l’uovo, la farina, il sale e mescoliamo tutto bene, stendiamo l’impasto su di un piano di legno infarinato e lavoriamolo con le mani fino ad ottenere un composto morbido ed omogeneo ma ben amalgamato.
A questo punto otteniamo dall’impasto delle striscioline del diametro di circa 1cm e tagliarle in modo da ottenere degli gnocchi di circa 3 o 4 cm.

A questo punto grattugiare il parmigiano e la scamorza affumicata, tagliare la mozzarella a pezzettini e spezzettare le sottilette. E preriscaldare il forno a 180°.

Mettere a scaldare l’acqua salata e quando inizia a bollire immergervi gli gnocchi. Quando vengono a galla, con l’aiuto di una schimarola e depositarli delicatamente in una pirofila da forno.
Mescolare i formaggi (tranne il parmigiano) agli gnocchi mescolando con delicatezza.
Spolverare in fine con il parmigiano reggiano e aggiungere 2 riccioli di burro, quindi infornare e cuocere fino a quando i formaggi non saranno sciolti. In fine gratinare per un paio di minuti.


Caramelle di pasta al formaggio
Caramelle-di-pasta-al-formaggio
Mettere l’acqua in un contenitore e aggiungere del sale mescolando per farlo sciogliere completamente, poi disporre la farina di semola sul piano di lavoro a fontana e realizzare un buco nel centro della farina.
Versare l'acqua nel centro della farina mescolando per farla assorbire completamente.
Quando l'acqua sarà completamente assorbita, continuate a impastare fino a quando l’impasto no risulterà omogeneo e liscio.
Fare una palla con l’impasto e mettere a riposare avvolta nella pellicola per almeno 30 minuti, nel mentre tagliare il formaggio a cubetti di circa 4 o 5 mm.
Stendere la pasta e creare dei rettangolini all’interno dei quali si depositeranno i cubetti di formaggio. Chiuderli bene (aiutandosi con dell’acqua sui bordi della pasta) e schiacciare in prossimità del formaggio i lati più lunghi in modo da dare una forma a “caramella”.
Stendere su di un tagliere di legno infarinato e lascia asciugare per almeno un paio di ore la pasta.

Preparare la pasta ed il sugo
In una padella mettere a soffriggere i funghi con l’aglio ed il prezzemolo. Spruzzarli con il vino. 
Dopo un paio di minuti aggiungere il bacon tagliato a pezzettini e far cuocere a fuoco lento per 10 minuti; a metà cottura aggiungere i pomodorini tagliati a metà. Se il sugo dovesse asciugarsi troppo si può aggiungere un po’ d’acqua.
Nel mentre scaldare una pentola d’acqua ed aggiungere il sale. Quando l’acqua inizia a bollire immergere le caramelle di pasta. Dopo un minuto che sono venute a galla rimuoverle dalla pentola con l’aiuto di una ramina (non scolarle) e depositarle nella padella con il sugo. Quindi saltarle a fuoco vivo.
Servire calde


  ► Luoghi

Gubbio (pg)
Gubbio Gubbio, non è solo la città di don Matteo ma anche la più bella città medioevale.
Gubbio è stata una delle prime città alleate della Roma antica ad entrare nella civiltà latina e tra le prime ad avere una diocesi; dopo le invasioni barbariche la città venne ricostruita sulle pendici del monte Igino e iniziò anche per questa città il periodo dei comuni e delle lotte per le investiture.
Dopo una serie di lotte intestine la città di Gubbio si offre al signore di Montefeltro, entrando di fatto nel periodo delle signorie, per passare poi (insieme a Urbino) alla famiglia Della Rovere. Nel 1631 entra a far parte dello Stato della Chiesa, rimanendone parte fino al 1860 quando le truppe piemontesi liberano la città che diventa italiana a tutti gli effetti.

La città è oggi racchiusa tra le antiche mura, perfettamente conservate, che racchiudono al loro interno le testimonianze di diverse epoche. 
Abbiamo già detto, come Gubbio si sviluppi partendo dalle pendici del monte Igino per salire verso di esso, fino ad arrivare alla basilica di Sant’ Ubaldo, protettore della città, che è facilmente raggiungibile tramite la funivia “Colle Eletto” ed il cui punto di arrivo offre un panorama indimenticabile dell’Appennino Umbro-marchigiano, nonché della città sottostante.

Dalla basilica è possibile tornare al centro cittadino tramite una strada tutta in discesa non troppo faticosa. La parte alta del paese è quella più rappresentativa dove sono presenti diversi palazzi e chiese interessanti nonché la “Piazza della Signoria”  o “Piazza Grande” che è una delle più grandi piazze pensili e che costituisce, insieme al Palazzo dei Consoli ed il Palazzo del Podestà, una tra le più maestose e ardite realizzazioni urbanistiche medievali.

La bellezza di Gubbio è anche nel suo tessuto urbanistico che si snoda attraverso dei meravigliosi vicoli e scalinate che offrono panorami e scorci che riportano indietro nel tempo ed è impossibile non immaginarli pieni di commercianti, artigiani e persone comuni anziché che di turisti.

Oltre che per le bellezze artistiche, la visti alla città è fortemente consigliata a chi apprezza la buona cucina, in particolare il tartufo, gli affettati ed i formaggi che si possono assaporare nei vari ristoranti sparsi per tutta la città. Sapori forti come i buonissimi vini e l’olio della zona che sono dicotomici con il carattere gentile e amichevole degli eugubini.

Villa Lagarina (tn)
Villa Lagarina Il lago di Cei
Se si risale la Valdadige in direzione Trento, dopo aver passato la Valvenosta si giunge alla Vallagarina che si sviluppa a sud di Trento, nei pressi della città di Rovereto, e idealmente separa le Prealpi Bresciane da quelle Venete.
In questa valle, all’interno dell’ area protetta di Pran dell’Albi e ad un’altitudine di circa  900 metri, si trova il lago di Cei, circondato da boschi di abeti e faggi, con una variegata vegetazione acquatica dove predominano su tutte le altre piante ninfee e ranuncoli.
L'origine del Lago è dovuta ad una frana staccatasi probabilmente dal Monte Bondone intorno al 200 E.V. e   che nel corso di circa otto secoli ha favorito la formazione del lago. 

Il Lago di Cei presenta un biotopo caratterizzato da  una eccezionale varietà di essenze vegetali e molti animali tipici delle paludi: in effetti, se non fosse per le dimensioni, il lago ricorda molto una palude con le sue ninfee e piante acquatiche. Un percorso pianeggiante (lungo circa 1,5 km e molto semplice da percorrere) circonda il lago. Una volta completato il perimetro si aprono al turista curioso una serie di varie escursioni, più o meno impegnative, che si dipanano tra i boschi della zona.

In queste escursioni si possono ammirare una grandissima varietà di fiori (se la stagione è quella giusta), e i sentieri nei boschi sono ben segnati tanto che risulta molto difficile il perdersi. 
Per chi si sentisse più avventuroso,  è presente il “Nordic Walking Park”, composto da tre percorsi con diversa difficoltà e lunghezze che variano dai 7 ai 10 km con dislivelli da 0 a 100 metri.
Il bosco riserva anche diverse sorprese e curiosità sulla vita delle genti di montagna nei tempi passati come, ad esempio, le calchere, antichi forni che avevano lo scopo di creare la calce. Questi forni erano strutture di sassi squadrati e resistenti al calore; una volta riempiti di legname e rocce calcaree li si accendeva e si continuava ad alimentarli fino al raggiungimento di una temperatura di 800°-1000° C, quando la roccia calcarea perde l’anidride carbonica e si trasforma in calce viva. Visto che una volta raffreddata la calce doveva essere trattata con l’acqua questa zona ( ricordiamo che le Prealpi sono formate principalmente da rocce calcaree) si prestava alla presenza di questo tipo di attività.
Un'altra escursione permette di raggiungere la Malga Cimana e da qua proseguire fino alla chiesa di romanica di San Martin in Trasiél risalente all’anno 1000.
Nei vari sentieri tra i boschi è facile imbattersi in diversi capitelli e croci, segno tangente della religiosità che da sempre accomuna le genti di questi luoghi.
Sempre nei pressi del lago si può visitare la “Chiesetta de Probizer”, una piccola chiesetta dedicata a S. Maria Assunta che venne fatta costruire in stile neogotico da Francesco de Probizer negli anni tra il 1890-1891.

Per chi si trovi nei pressi di Trento e non lo abbia mia visto, una gita al lago di Cei è consigliata: questo piccolo e silenzioso specchio lacustre, incastrato in un fitto bosco, non fatica a svelare il suo fascino.
Caserta (na)
Caserta La Versailles italiana: La Reggia di Caserta
La Reggia di Caserta è capolavoro di architettura barocca voluto da Carlo III di Borbone, re di Napoli, la cui costruzione iniziò nel 1752. Nel 1767 Ferdinando IV la elesse a residenza reale (anche se solamente dal 1780 fu abitata) ma i lavori continuarono e l’edificio, fu completato solamente nel 1845.

Carlo III pensò di spostare la sede del governo al fine di preservarla da eventuali attacchi. La scelta cadde su Caserta, una località lontana dal mare e quindi meno soggetta agli attacchi ed alle cannonate delle navi e più facilmente difendibile dell’allora capitale Napoli. Visto che c’era Carlo III pensò bene di realizzare una reggia che potesse reggere il paragone con le altre residenze reali dell’epoca (in particolare Verrsailles e Schönbrunn) e, se possibile, superarne lo splendore. Il progetto fu affidato all’architetto Luigi Vanvitelli che si ispirò alla reggia di francese. Nacque così un edificio che è quasi il doppio di Versailles (1200 stanze contro le 700 di Versailles) e che, pur traendo ispirazione se ne discosta. Questo fu possibile anche perché il Vanvitelli poté operare patendo da zero, mentre la residenza d’oltralpe venne edificata su di un preesistente edificio in mattoni e pietra; in questo modo la Reggia di Caserta risulta, sebbene ispirata alla corte francese, un edificio con le sue caratteristiche uniche e peculiari che mescola due stili architettonici: il Barocco (come nella reggia di Versailles) e lo stile Neoclassico. Inoltre, mentre la reggia francese era adibita esclusivamente a ospitare il sovrano e la sua corte, quella partenopea aveva lo scopo di ospitare il governo e quindi numerose stanze erano adibite alle truppe o agli uffici amministrativi. 
La reggia di Caserta è una delle più belle residenze reali attualmente esistenti tanto da essere la sede di numerosi films, i più famosi dei quali “Star Wars: Episodio 1- La minaccia fantasma” ed il suo seguito “Star Wars: Episodio II- L’attacco dei cloni” dove il settecentesco edificio divenne la sede e la residenza della principessa Padmé Amidala e del governo del pianeta Naboo.  Ma quello di Lucas non è il solo film di successo internazionale che holliwood ha voluto girare nel monumento patenopeo: “Mission Impossible III”, “Angeli e Demoni” sono alcuni dei titoli più famosi, mentre per le pellicole nostrane vale la pena ricordare “Ferdinando e Carolina” di Lina Wertmuller, la fiction Rai “Giovanni Paolo II”, alcune scene della seconda stagione della serie “Elisa di Rivombrosa”, “Il Pap’occhio”.

Esternamente la reggia copre più di 61.000 mq di cui 45.000 circa sono occupati dell’edificio ed i rimanenti dal parco; si alza per cinque piani raggiungendo i 36 metri ed è comprende quattro cortili interni racchiusi in un rettangolo di 250 metri quadri per 200. Per realizzare questo immenso edificio, abbiamo visto ci volle più di un secolo ed il cantiere era immenso: all’apice lavoravano 2700 operai, 300 capomastri, 250 pirati turchi catturati in mare, 330 tra forzati e condannati. Per il trasporto del materiale si utilizzarono persino cammelli ed elefanti.
Superato l’ingresso si accede ad una lunga galleria che attraversa tutto l’asse centrale della reggia e sbuca nel vasto parco, pieno di fontane e vasche. Dalla galleria si accede anche alla visita interna dell’edificio al quale si accede tramite un’imponente scalone a guardia del quale stanno due state leonine. 
La reggia, appare oggi ben conservata ed i mobili (a differenza di quelli di Versailles) sono ancora quelli originali; l’interno è un susseguirsi di immense sale impreziosite da sculture, stucchi, bassorilievi ed affreschi curati in ogni dettaglio e perfettamente conservate. La sala del trono si trova a circa 200 metri dalle scale, in una stanza immensa, dove (viste anche le non notevoli dimensioni della seduta reale) sembra quasi irraggiungibile e distante tanto si perde nella vastità della sala. La stanza del trono è infatti larga 25 metri e lunga 40, con il tetto a volta che si innalza per 15 metri ed è ricoperto di decorazioni con solo due colori predominanti: l’oro ed il bianco.
Nella reggia è presente anche un teatro, voluto dal re dopo che i lavori erano già iniziati e, questo, portò a stravolgimenti nel progetto originale del Vanvitelli che riuscì comunque a realizzare un vero gioiello: una copia in miniatura del teatro San Carlo di Napoli, ed è composto da 42 palchi messi su 5 livelli diversi ed ogni palco è diverso da quello che lo precede. Una caratteristica del teatro sta nel palco che, dietro la scenografia, tramite due portali da accesso al parco che veniva utilizzato per ampliare le scenografie e renderle più spettacolari con incendi o fuochi d’artificio.

Esternamente la reggia è circondata da un parco di circa 120 ettari, anch’esso progettato dall’architetto Luigi Vanvitelli, e che impressiona il visitatore con la sua “via d’acqua”, ovvero una serie di cascate e vasche di hanno una lunghezza di 3 chilometri affiancati da due viali che raggiungono la sommità della collina antistante il palazzo. L’acqua arriva alle fontane tramite “l’Acquedotto Carolino”, anch’esso fatto costruire da Vanvitelli che raccogli l’acqua di sorgenti lontane 38 chilometri e la cui costruzione richiese sedici anni.
La cascata da qui parte l’acqua dalla sommità della collina rappresenta anche una novità ideata da Luigi Vanvitelli e chiamato “effetto cannocchiale” che consiste nella realizzazione di un enorme viale, completamente diritto, che partendo da Napoli termina, per l'appunto nella parte finale del parco della reggia sulla sommità della collina. Purtroppo la morte dell’architetto Vanvitelli, ideatore del progetto, i lavori si fermarono per 4 anni e, alla loro ripartenza, il parco venne terminato non come era nei suoi disegni originali ma come lo vediamo oggi che è una versione (seppur magnifica) ridotta del progetto originale. Nel 1777 il figlio di Luigi Vanvitelli, Carlo, che succedette il padre nella realizzazione dei lavori, presentò al nuovo re Ferdinando IV, una versione ridotta del progetto di suo padre. Infatti, le difficoltà economiche e l'esigenza di completare i lavori più rapidamente, costrinsero a ridurre il numero di fontane nella seconda parte del Parco.

La visita alla reggia è consigliata a tutti, ma bisogna essere disposti a camminare, non solo per la vastità dell’edificio, ma anche per i giardini. Il tempo è un’altra cosa che il visitatore alla reggia deve essere sicuro di avere, visto che ci vuole un’intera giornata.

  ► Gallery

Primavera Estate 2020 (83)
Primavera Estate 2020
Inverno2019-20 (25)
Inverno2019-20
Autunno 2019 (29)
Autunno 2019

  ► Curiosità

Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire) e non è da considerare il padre ti tale aereo (come affermato dalla trasimissione RAI “Presa Diretta” del febbraio 2013). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)
Il Piano Bernadotte
Il Piano Bernadotte Nell'estate del 1948, il Conte Folke Bernardotte fu inviato dalle Nazioni Unite in Palestina per mediare una tregua e tentare di negoziare un compromesso. Il piano di Bernardotte chiedeva allo Stato ebraico di consegnare il Negev e Gerusalemme alla Transgiordania in cambio della Galilea occidentale. Questo piano era simile ai confini che erano stati proposti prima del voto sulla spartizione, e che tutte le parti avevano rifiutato. Ora la proposta veniva offerta dopo che gli Arabi erano andati in guerra per impedire la spartizione ed era stato dichiarato uno stato ebraico. Sia gli Ebrei che gli Arabi rifiutarono il piano.
Ironicamente, Bernardotte trovo' tra gli Arabi poco entusiasmo per l'indipendenza. Egli scrisse nel suo diario:
"Gli Arabi palestinesi al momento non hanno una volontà loro.
Ne' hanno mai sviluppato un nazionalismo palestinese specifico. La domanda di uno stato arabo separato in Palestina e' pertanto relativamente debole. Semberebbe proprio che nelle circostanze attuali gran parte degli Arabi palestinesi sarebbe alquanto contenta di essere incorporata nella Transgiordania" 
Il fallimento del piano Bernardotte giunse quando gli Ebrei cominciarono ad avere maggior successo nel respingere le forze arabe d'invasione e nell'espansione del loro controllo sui territori esterni ai confini della spartizione.

  ► Aerei

Yakovlev Yak-38
Yakovlev Yak-38 Tipo: Cacciabombardiere turbogetto a decollo verticale
Ruolo: Caccia, Appoggio, Attacco, Bombardamento , Antinave
Nazione di Origine: URSS
Armamento: Bombe FAB-500, FAB-250 subalari, ZB-500 (incendiarie) o RN-28 (nucleari tattiche). _x000d_ Missili antinave. Missili aria-superficie: AS-7 Kerry. Gondole per cannoni da 23 _x000d_ mm.

Prestazioni: Velocità massima 1100 km/h, 1210 km/h a livello del mare. Velocità di salita 75 m/s. Autonomia 1300 km. Tangenza 11000 m
Martin B-57 Canberra
Martin B-57 Canberra Tipo: Bombardiere / aereo da attacco
Ruolo: Attacco, Bombardamento
Nazione di Origine: USA ( su licenza britannica)
Armamento: 4 cannoni M39 da 20 mm. Bombe 2000 kg nella stiva interna, 1300 kg sotto i piloni alari. _x000d_ Missili razzi non guidati sotto i piloni alari

Prestazioni: Velocità massima 960 km/h a 760 m. Velocità di crociera 765 km/h. _x000d_ Autonomia 4380 km. Raggio di azione 1530 km con 2380 kg di bombe. Tangenza 13 745 m
Ilyushin Il-78
Ilyushin Il-78 Tipo: Aerocisterna
Ruolo: Attacco, Lotta Antisom, Rifornimento in Volo, Antinave
Nazione di Origine: URSS (RUSSIA)
Armamento: Fino a 5000 kg di carico bellico interno tra cariche di profondità, mine e bombe. Siluri AT-_x000d_ 1 o AT-2 da 450 mm

Prestazioni: Velocità max 850 km/h. Velocità di crociera 800 km/h. Autonomia 7300 km. Raggio di azione 3650 km. Tangenza 12000 m

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Photoshop CC v.14 con esempi
Photoshop CC v.14 con esempi
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.