Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Sfumature Di Pensiero
Sfumature Di Pensiero
L’universalità di internet deve corrispondere all’universalità di un pensiero eticamente unificato?
Abbiamo assistito un paio di mesi fa a due eventi che ci portano a riflettere: la chiusura degli account Facebook dei profili di Casa Pound e di Forza Nuova e, pochi giorni dopo, la chiusura temporanea della pagina dei “Socialisti Gaudenti”.
È certamente giusto e doveroso da parte del gestore di un servizio non fomentare l’odio e l’intolleranza, nonché l’incitamento alla violenza, non solo per evitare eventuali conseguenze penali, ma anche per tutelare la propria reputazione.
Ma in base a cosa un’azienda prede queste decisioni?
Nel caso di Facebook, un’azienda statunitense con sede in America, le regole della comunità si basano sul "politicamente corretto" della società statunitense in termini di linguaggi, etica, immagini ammesse e lotta alla discriminazione sessuale, il tutto basato sul puritanesimo tipico della società statunitense.
Sugli stessi principi etici che intingono questo tipo di pensiero vediamo che la soluzione dei conflitti tra le persone all’interno della comunità virtuale vengono lasciate a loro, senza censurare l’utilizzo di insulti e, nel contempo, si lascia spazio ad un relativismo scientifico e culturale che spazia da i no vax agli ufologi, dai complottisti vari, ai terrapiattisti, in base al concetto tipicamente nord-americano che la libertà di parola deve valere sopra tutto.

Sebbene la rete internet stia sempre più diventando un sistema chiuso e proprietario rimane ancora una rete libera, universale e aperta ma, a differenza di appena 10 anni fa, è aumentato il numero di persone che ne usufruiscono mentre è diminuito nel contempo il numero di siti che vengono visitati. Certamente anche allora la maggioranza degli utenti visitava sempre stessi siti, ma oggi gran parte degli internauti va solamente a visitare i social network come Facebook, Twitter, Instagram, Vk e, da qua, nasce una riflessione importante: quanto una società privata, con sede all'estero, abbia il diritto di decide che cosa sia pubblicabile o meno aldilà delle leggi di un paese e della sua Costituzione?
La prima causa di questa polarizzazione etica è dovuta, nel vecchio continente, all’arretratezza Europea nei confronti degli USA nel settore dei Social Network e dei motori di ricerca che ha portato un’egemonia culturale della società nord-americana nei nostri confronti, un’egemonia che è accentuata anche dalla presenza in massa della società americana nelle nostre televisioni nella maggior parte delle serie televisive, dei film e dei libri.
Alcuni paesi, come la Cina o dove vigono regimi totalitari o teocratici, lo stato tende a limitare l’accesso ad alcuni siti o social per, a detta dei censori, tutelare la cultura autoctona, ma in realtà queste forme di censura servono solo a tutelare loro stessi.
Chiaramente la censura ed un atteggiamento pregiudiziale nei confronti di altri modi di pensare non è, e non potrà mai essere, la soluzione ad un’egemonia culturale che si impone in maniera indiretta, così come non è possibile illudersi di cambiare gli atteggiamenti radicati. Bisogna, invece cercare di evitare il monopolio culturale ed ideologico dei social network recuperando il divario tecnologico che ci separa dalla società americana, incentivando lo sviluppo di nuove idee e favorendo la nascita di società tecnologiche sul territorio europeo.
Fare questo non vuol dire chiudersi su se stessi o avere atteggiamenti che vengono considerati di una determinata visione politica, ma è importante considerare che, se ad esempio, negli Stati Uniti mostrare il seno in pubblico è considerato immorale, in Europa, una simile concezione è diversa e così, un post che mostra una donna a seno nudo che manifesta a favore della prevenzione del tumore non è considerato immorale e, quindi censurato, a differenza di quello che succede oltreoceano.
Sempre nelle differenze tra cultura Statunitense e cultura Europea vediamo che da noi è più facile fare battute su un determinato gruppo culturale o linguistico (le famose barzellette: c’è un Italiano, un Francese, un Tedesco...) mentre negli Stati Uniti questo può venir considerato scorretto e razzista.
Nell’ambito dei social network queste differenze sono ancora più enfatizzate e gli algoritmi ed i robot che si occupano di valutare il contenuto di un post sono tarati su quello che è considerato “bene” dalla cultura che lo ha generato, in questo caso quella Americana che è molto diversa da quella europea.

L’ esempio di paese che è riuscito a mantenere una propria identità online è quello della Russia.
Nel 1997 (un anno prima di Google) nasce Yandex, un motore di ricerca costruito sul linguaggio e gli algoritmi russi che ancora oggi è più utilizzato di Google in tutti i paesi di lingua e cultura Russa che facevano parte dell’ex URSS, offrendo gli stessi servizi (che vanno dal noleggio auto alla vendita online, dalle mail gratuite alla richiesta di taxi) che sono offerti dai colossi made in USA ma pensati per un bacino di utenza culturalmente diverso. Nel 2011 la società è stata quotata nella borsa di New York ed ha ottenuto un valore di 1.3 miliardi di dollari, aprendo poi filiali in tutto il mondo, proprio come BigG e Facebook.
Vediamo quindi che, agevolare la nascita di motori di ricerca e social network a livello nazionale non vuol dire solamente tutelare la propria cultura ma anche offrire la possibilità di nascere ad aziende che hanno il potenziale di creare indotto e ricchezza per un paese.
Certo a livello Europeo le cose sono un po’ più complicate, siamo un insieme di stati e popoli che tendono ad avere una visione nazionalistica del concetto di unione europea ed abbiamo una moltitudine di lingue che complicano la realizzazione di un progetto europeo, ma recuperare il tempo perso non è impossibile ed è ancora fattibile.
La Rivincita Dell’Open Source
La Rivincita Dell’Open Source
Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.


Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.


Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.


L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child”  (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo).  È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.


L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.

La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.


Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva  GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da  27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni  non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come  Visual Studio,  sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code  viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.

 



1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di  fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.

Assistenti vocali e privacy
Assistenti vocali e privacy
La mancata consapevolezza dell’uso della tecnologia a volte ci porta a perdere alcuni diritti fondamentali che abbiamo guadagnato come quello alla privacy.
Non è insolito, quando un comune decide di installare delle telecamere di videosorveglianza in una via o in una zona di una qualche città vedere la nascita di comitati contrari che si battono in nome della difesa della privacy dei cittadini. Non meraviglia poi vedere quelle stesse persone che fanno parte dei comitati "dettare" un promemoria o un messaggio da inviare al loro assistente vocale o, una volta rientrate a casa, dire: "Alexa - o Cortana, o google- fammi ascoltare della musica".
Che relazione c’è tra le due azioni? Possiamo dire che entrambe sono un accesso alla nostra privacy, ma mentre nel caso delle telecamere il loro uso è regolamentato da leggi e il loro scopo è quello di una maggior tutela del cittadino, nel caso degli assistenti vocali, invece, non vi è alcuna regolamentazione specifica (se non quella generica sull’uso dei dati personali) e lo scopo è quello di fornirci un servizio personale.
Quello degli assistenti vocali non è un fenomeno nuovo anche se solamente negli ultimi anni ha iniziato a svilupparsi e ad essere veramente funzionale, grazie al miglioramento delle tecnologie di Machine learning e delle intelligenze artificiali.
A memoria di chi scrive già alla fine degli anni ’90 del secolo passato si iniziavano a vedere i primi programmi che permettevano di controllare il computer tramite la voce, aprire chiudere i programmi, dettare una mail, leggere un testo, prendere appuntamenti nel calendario ricordandoli e molto altro ancora. Uno dei primi software a funzionare nei computer domestici fu messo in commercio nel 1997 dalla Dragon System con il nome di "Dragon Naturally Speaking" ed era uno dei più sofisticati programmi di controllo del computer tramite l’uso di un linguagio naturale; la stessa Microsoft nella beta del sistema operativo WindowsNT5 (che poi diventerà windows 2000) aveva preinstallato un assistente vocale che si attivava tramite “Hey computer!” seguito dal comando. Ad esempio si poteva dire "Hey computer! start running word" ed il computer faceva partire il programma word.
Il problema di questi programmi era che avevano bisogno di molto tempo per "imparare" a capire la voce di chi parlava ed i comandi che venivano invocati, oltre a necessitare di molte risorse delle macchine sulle quali giravano.
Oggi ogni smartphone è dotato di assistente vocale, i computer dotati di windows10 hanno anche loro un loro assistente vocale chiamato Cortana, mentre le grandi compagnie del web sviluppano i loro assistenti che si integrano con i device di casa senza bisogno di un classico computer, come ad esempio Amazon Echo, o Google Home.
La prima azienda che nel secondo decennio del nuovo millennio diede un importante contributo alla rinascita degli assistenti vocali ed alla loro evoluzione è stata la Apple che nel 2011 lanciò Siri che ancora oggi è parte integrante dei dispositivi dell’azienda di Cupertino.
La principale differenza tra Siri (così come di tutti i moderni assistenti vocali) ed i programmi della generazione precedente è che la nuova generazione lavora tramite connessione internet in remoto: i comandi non vengono più elaborati dal processore della macchina sulla quale gira l’assistente vocale, ma la voce viene inviata ad un server remoto che la elabora e rimanda all’assistente il comando relativo alla richiesta. In questo modo il dispositivo che viene usato dell’utente diventa un semplice terminale e tutto il carico di lavoro viene relegato ai server, così si può anche evitare il tedioso passaggio del machine learning che viene già eseguito a monte.
Ma la sola intelligenza artificiale presente sui server ed il processo di machine learning dovuto a centinaia di migliaia di utenti che ogni giorno comunicano con il proprio assistente virtuale è sufficiente a creare quella interazione uomo macchina che permette di controllare una casa smart o sviluppare tutte quelle funzioni che offrono Alexa, Ok Google, Cortana e Siri senza sbagliare? Forse no!
Un reportage realizzato dalla televisione pubblica belga Vrt Nws ha messo in luce che Google, Apple e Amazon, con la scusa di migliorare i servizi offerti dagli assistenti vocali, hanno spiato la propria utenza attraverso gli stessi assistenti.
Il canale televisivo Vrt Nws sarebbe entrato in possesso di alcune conversazioni registrate "accindentalmente" senza che venisse attivato l’assistente vocale google piene di dati personali e dati sensibili come i discorsi fatti all’interno di un’ignara famiglia o quelli di un utente che parla della sua vita sentimentale. Il fatto inquietante è che non solo i dipendenti di google hanno accesso alle conversazioni ma anche le aziende partner per permettere di comprendere meglio gli ordini degli utenti. Dal canto suo l’azienda di Mountain View si è giustificata dicendo che "solo lo 0,2% di tutte le registrazioni è accessibile a chi lavora per Google e che i file audio sono comunque privi di informazioni che permettono di identificare l’utente". Mentre l’inchiesta della televisione belga era principalmente incentrata su google, un’ inchiesta del Guardian rivela che un processo analogo è operato anche da Apple tramite Siri e da Amazon tramite Alexa; Bloomberd, invece, racconta come Amazon tramite persone che lavorano anche nove ore al giorno in tutto il mondo e team di aziende appaltatrici che vanno dagli Stati Uniti alla Romania, dall’ India al Costarica, ascolta le registrazioni vocali catturate dai dispositivi Echo, le trascrive, le annota e quindi le inserisce nel software per eliminare le lacune nella comprensione del linguaggio umano da parte di Alexa e aiutarlo a rispondere meglio ai comandi.
Anche Amazon, come Google si è difesa dicendo che il campione di audio che viene ascoltato è molto limitato: "Abbiamo rigorose garanzie tecniche e operative e una politica di tolleranza zero per l'abuso del nostro sistema. I dipendenti non hanno accesso diretto alle informazioni che possono identificare la persona o l'account. Tutte le informazioni sono trattate con alta riservatezza".
In questo contesto non è facile capire se venga o meno violata la privacy dei proprietari dei dispositivi incriminati, ma, sicuramente, la faccenda ha preoccupato il garante della privacy di Amburgo che ha imposto una pausa temporanea alla pratica di 3 mesi a Google e suggerito agli altri big del settore di fare lo stesso, fino a quando non saranno concluse le indagini avviate riguardo l’uso che viene fatto dei dati raccolti: "L’uso di assistenti vocali automatici da parte di provider come Google, Apple e Amazon - evidenzia l’Autority - prova l’elevato rischio per la privacy delle persone coinvolte".
Questa pratica, comunque non è appalto esclusivo degli assistenti vocali. Anche l’azienda Facebook, si è scoperto, tendeva a trascrivere i messaggi audio delle conversazioni degli utenti della chat "messanger" e non è escluso che lo stesso sia stato fatto per whatsapp.
Quando si decide di utilizzare una tecnologia che non sempre è sotto il nostro controllo bisogna sempre considerare la possibilità di dover rinunciare a una parte, più o meno grande, della nostra privacy.
Ma il prezzo che stiamo pagando è giusto?
La risposta la sapremo solo in futuro

  ► Ricette

Petti di pollo al Pompelmo Rosa
Petti-di-pollo-al-Pompelmo-Rosa

Il pollo al pompelmo rosa è un piatto saporito e veloce da preparare. Sebbene il pompelmo sia una frutto relativamente giovane nelle nostre tavole l’abitudine di insaporire le carni con gli agrumi affonda le radici nella tradizione culinaria italiana e quindi non v’è nulla di strano ad usare il pompelmo, soprattutto con una carne come quella del pollo che si presta a molte combinazioni.

Impannare con abbondante la farina i petti di pollo.
Spremere il succo dei pompelmi.
In una padella sciogliere il burro e far rosolare le foglie di salvia fresca, quindi adagiare le fette di pollo impannate e cuocerle 3-4 minuti per lato (o fino ad ottenere una bella doratura) a fuoco vivo, quindi abbassare la fiamma e aggiungere il succo di pomplemo.
Cuocere per 5-7 minuti per far condensare il succo.
Prima di servire regolare il sale.
Volendo si possono aggiungere alcuni grani di pepe verde che sposa bene con il pompelmo ed il pollo.

Spaghetti con i gamberoni al mojito
Spaghetti-con-i-gamberoni-al-mojito
Dosi e ricetta per 2 persone.
Pulire i gamberoni e sgusciarli ( tenerne 2 per con il carapace per decorare), quindi metterli a marinare per almeno 1 ora i gamberoni con il lime, la cachaca e la menta a pezzetti; la quantità di menta dipende dai gusti.

Mettere a scaldare l’acqua per la pasta e quando bolle buttare gli spaghetti. Mentre si cuoce la pasta mettere a scaldare 1 spicchio d’aglio con l’olio d’oliva, quindi aggiungere i gamberoni e farli rosolare. Aggiungere la marinatura e finire di cuocere i gamberi.
Rimuovere quindi i gamberi e mettere a cuocere, nella stessa padella ed assicurandosi di mantenere la marinatura i pomodorini.
Quando la pasta è pronta, prima di scolarla, aggiungere nella padella calda, insieme ai pomodorini i gamberoni ed in fine la pasta scolata.

Impiattare e servire caldo!

Ravioli di gamberetti al profumo d'agrumi
Ravioli-di-gamberetti-al-profumo-d-agrumi
Con l'avvicinarsi dell'estate un piatto che rinfrescherà le serate con gli amici: i ravioli di gamberetti al profumo d'agrumi

Per il ripieno:
In una padella mettere a scaldare un cucchiaio di olio d’oliva con 1 spicchio d’aglio.  Quando inizia a soffriggere l’aglio aggiungere i gamberetti (sgusciati), il prezzemolo a piacere, salare e  sfumare con il vino bianco.
Quando saranno cotti tritarli e mettere il tutto a riposare.

Per la pasta
Per preparare la pasta bisogna ricordare che ci vogliono circa 100gr di farina per ogni uovo, in questa ricetta la porzione è per 2 persone quindi abbiamo usato 200gr di farina e due uova.
Mettere la farina"00" sul tavolo o su di una spianatoia formando una fontana, con le dita si crea una cavità simile a un cratere. Si passa poi a spolverare il  tutto con un po’ di sale e ci si sguscia al centro della farina le uova.
Si inizia poi ad incorporare un po’ di farina presa dai bordi del cratere e  si prosegue a lavorare gli ingredienti con le dita fino a quando non si sarà raccolta tutta la farina.
Dopo aver impastato almeno 10 minuti in modo energico si forma una palla, la si  avvolge nella pellicola e la si lascia riposare l'impasto per almeno 10-15 minuti.
Trascorso il tempo si prende l'impasto lo si  appiattisce con le mani per conferirgli una forma a disco e lo  si stende sul tavolo o sulla spianatoia (sempre ben infarinati).
Con l'aiuto di un mattarello partendo sempre dal centro e facendolo scorrere in tutte le direzioni in modo da ottenere una sfoglia dallo spessore uniforme la si spiana. Quando la sfoglia comincia ad allargarsi la si gira, avvolgendola sul mattarello e la si ruota di 90°. 
Continuare a stendere la sfoglia fino a raggiungere lo spessore desiderato. 
Una volta ottenuta una bella sfoglia con l’aiuto di un bicchiere o di uno strumento apposito si ritagliano dei dischi ed al loro centro si depone il ripieno fatto con i gamberetti. Li si richiude avendo l’accortezza di bagnare leggermente i bordi in modo da far aderire bene i due lembi di pasta.

Preparare poi il sugo.
Sia dall’arancio che dal limone togliere delle striscioline di buccia (attenzione a rimuovere il bianco) che andranno ad essere usate come guarnizione nel piatto, quindi si spremono i succhi di entrambi gli agrumi in una bacinella, vi si aggiunge 1 cucchiaio di farina e una presa di sale e si mescola il tutto fino a togliere ogni grumo.
In una padella si mette a sciogliere una noce di burro, quando inizia a friggere si aggiunge il succo degli agrumi e si lascia condensare.
Nel mentre si mette a bollire una pentola d’acqua con del sale grosso e, quando l’acqua bolle, si immergono i ravioli. Cuocerli per 3 o 4 minuti ( o di più nel caso, dipende dallo spessore della sfoglia) quindi, delicatamente, li si estrae dalla pentola e li si mette nella padella con il sugo bello caldo e li si mescola.
Servire accompagnandoli nel piatto con le scorze degli agrumi e, a piacere, con una spruzzata di aceto balsamico



  ► Luoghi

Sanzeno (tn)
Sanzeno Sentiero nella Roccia per San Romedio
Se si passa per la Val di Non l’antico e pittoresco paesino di Sanzeno merita sicuramente una visita. Se poi si ha voglia di farsi una piccola camminata dal suo centro si dipana un sentiero che attraverso valli, boschi, meleti porta all’antico santuario di San Romedio.
Per chi, come chi scrive, ha avuto la possibilità di fare il percorso durante l’autunno può facilmente avere la sorpresa di trovarsi a camminare attraverso meleti i cui frutti colorati vanno dal rosso al giallo passando per il verde chiaro. Appena usciti dai meleti si incontra un bosco che ci accompagnerà per quasi tutto il percorso che viene interrotto solamente quando incontra lo sperone di roccia attraverso il quale è stato scavato un percorso che sale lungo la montagna in maniera gradevole e per nulla impegnativa.
Sicuramente questo punto del percorso è quello più affascinante offrendo un panorama mozzafiato perpendicolare alla strada ed ai boschi sottostanti o alla vallata che ci lasciamo alle spalle.
Dopo circa un’ora di passeggiata (sono circa 5Km tra andata e ritorno) si raggiungono le pendici della roccia, alta circa 90 metri, sulla quale sorge il Santuario di San Romedio, uno dei più caratteristici eremi presenti in Europa.
Secondo la leggenda fu qui che San Romedio visse come eremita in compagnia solo di un orso ed è per questo che in un’area faunistica adiacente l’ingresso è ospitato un orso trentino di nome Bruno che vive in semilibertà ed è diventato la mascotte del luogo.
È dal 1958, quando il senatore conte Gian Giacomo Gallarati Scotti, membro d’onore del comitato di fondazione del WWF in Italia, comprò Charlie, un orso destinato a morire perché la sua pelle fosse venduta, e lo donò al santuario di San Romedio che l'area faunistica del santuario di San Romedio ha iniziato a dare asilo ad esemplari di orso altrimenti destinati ad una sorte più triste. Il senatore Gallarati Scotti ricordò la leggenda del santo che, ormai vecchio, si sarebbe incamminato verso la città deciso ad incontrare il Vescovo di Trento Vigilio. Lungo il percorso il suo cavallo sarebbe stato sbranato da un orso, Romedio tuttavia non si diede per vinto e avvicinatosi alla bestia sarebbe riuscito miracolosamente a renderla mansueta e a cavalcarla fino a Trento. Quando al ritorno da Trento Romedio scelse di dedicare la sua vita all'eremitaggio, l'orso divenne il suo unico compagno fino alla morte.

Il Santuario di San Romedio è formato da cinque piccole chiesette sovrapposte costruite fra il 1000 ed il 1918, tutte edificate su uno sperone di roccia e unite tra loro da una lunga scalinata di 131 gradini.
La chiesa Antica, la prima costruita e che conserva in urne le reliquie del Santo si trova all’entrata, del complesso, segue la chiesa maggiore di S. Romedio eretta nel 1536, la chiesetta di S. Michele che è databile intorno al 1514, la chiesetta di S. Giorgio del 1489 per finire con la chiesetta dell'Addolorata, costruita in ringraziamento per la pace dopo la guerra del 1915-18.
All’interno della chiesa sono conservati moltissimi ex voto, alcuni dei quali (i più antichi sono del del XV, XVI e XVII secolo) sono vere e proprie opere d’arte, ma, d’altronde, tutte le chiese antiche che compongono il santuario sono piene di affreschi che meritano di essere ammirati.
Al ritorno il visitatore può scegliere di fare la strada normale asfaltata più corta oppure ripercorrere il sentiero e ammirare la bellezza delle vedute da un’angolazione diversa
Matera (mt)
Matera La Capitale Europea della Cultura 2019
Matera è una città che è rimasta immutata nei tempi e visitare la città è come entrare in un presepe tanto che nel 2004 Mel Gibson decise di girare qua il suo film “The Passion of Christ”; ma quello di Gibson non è ne il primo ne l’ultimo dei film girati in questa città. Negli anni altri famosi registi hanno ambientato i loro capolavori in questa città tra questi ricordiamo “La Lupa” del 1956 di Lattuada, “Anni ruggenti” di Luigi Zampa del 1962, “Il vangelo secondo Matteo” di Pasolini del ’64, “Cristo si è fermato a Eboli” di Rosi nel  1979, “L’uomo delle stelle” di Tornatore (1995), il remake di “Ben Hur” del 2015, per finire nel 2019 con “No Time to Die” l’ultimo film della saga di 007.
Questa luna lista di film severe solo per dare un’idea di come sia speciale la città dei sassi dove, fino agli anni ’50, la maggior parte della popolazione viveva ancora nelle case grotte come ai tempi dei primi insediamenti. 

Matera è una città nata nel tufo, che i geologi chiamano calcarenite, un materiale friabile e adattabile che i maestri artigiani del luogo hanno imparato a lavorare con grande maestria e, mentre scavavano per estrarre il tufo, alla gente del luogo sembrò normale crearsi l’abitazione all’interno di quelle rocce. Piano piano il numero delle abitazioni è cresciuto e nella stesa roccia vennero scavate viuzze, chiese, piazze creando la struttura urbana della città che conosciamo oggi e che diede il soprannome a Matera di città dei Sassi.

Negli anni ’50, per proteggere gli abitanti dalle malattie dovute alla scarsa igiene nella quale vivevano il governo italiano creò la città nuova dove vennero fatti spostare gli abitanti dei sassi: dopo la Seconda Guerra Mondiale, con la denuncia di Carlo Levi, Matera fu presa a modello di quello che era l’arretratezza e la povertà dell’Italia meridionale. I Sassi erano un groviglio di case sovraffollate, sporche, in cui mancano le più elementari condizioni sanitarie per vivere degnamente, a partire dalla mancanza di fogna e di acqua corrente, tanto che la mortalità infantile era una delle più alte in Italia (su 1000 bambini nati 463 nascevano morti, contro la media nazionale ferma a 112).
Per volere di Adriano Olivetti (all’epoca presidente dell’Istituto Nazionale dell’Urbanistica) nacque la “Commissione per lo studio della città e dell’agro di Matera”, con lo scopo di avviare un’indagine per conoscere a fondo le condizioni di vita degli abitanti dei Sassi e successivamente proporre soluzioni per trasferirli in quartieri nuovi. Nel maggio 1952 lo Stato Italiano, con l’allora presidente del consiglio Alcide De Gasperi e con il ministro Colombo, tramite la “Legge Speciale per lo sfollamento dei Sassi” impose a circa diciassettemila persone, di abbandonare le proprie case per trasferirsi nei nuovi rioni.
I Sassi divennero così una città fantasma e gli ex abitanti ottennero case nuove pagando canoni di affitto irrisori in cambio della cessione delle loro vecchie dimore al demanio. Il degrado e l’abbandono si impossessarono delle grotte e delle chiese rupestri, mentre la città si espandeva nei quartieri nuovi secondo il Piano Regolatore.
Nel 1986, grazie alla Legge Speciale n. 771, si autorizzò i cittadini a tornare nei vecchi rioni in tufo per farli rivivere, invertendo quello che era stato il flusso forzato verso i nuovi quartieri; questo periodo rappresenta l’inizio di una nuova alba per i Sassi e per la città trasformando quello che era chiamato la “Vergogna nazionale” in uno dei centri storico culturali più importanti ed unici del mondo.
Bisogna però aspettare il 9 dicembre del 1993 affinché l’UNESCO dichiarasse i Sassi “Patrimonio Mondiale dell’Umanità”, facendone il sesto sito italiano ad entrare a far parte di questo speciale elenco, ed il primo dell’Italia meridionale.
Negli anni seguenti la città è cresciuta e con essa anche il turismo vedendo la nascita di numerosi ristoranti, hotel e b&b.

Tra i luoghi da visitare nella città dei sassi sicuramente non bisogna perdere il “Palombaro lungo”, la grande cisterna che si trova sotto la centrale piazza Vittorio e che venne utilizzata fino ai primi anni del ‘900 per la raccolta dell’acqua potabile. Per visitare questo luogo esiste un suggestivo percorso, la cui visita deve essere prenotata, che permette di osservare questa incredibile cisterna scavata nella roccia che è una tra le più grandi al mondo.
Per chi visita Matera, poi, imperdibile è la visita a una delle tante casa-grotta scavate nella roccia che sono state oggi recuperate e trasformate in musei dove è stato ricostruito il tipico ambiente nel quale vivevano i materani fino alla metà del secolo scorso; così come imperdibile risulta la visita alle chiese rupestri.

Da un punto di vista enogastronomico Matera è una città dalla tradizione culinaria molto antica basata sulla semplicità dei piatti che fanno largo uso di portate a base di formaggi, legumi, carni e verdure, il tipico Pane di Matera nonché i rinomati peperoni cruschi che consigliamo vivamente di mangiare sulle bruschette; oltre che sul pane questi peperoni, dolci e croccanti, sono usati anche per condire i piatti di pasta fresca come i cavatelli, la tipica pasta preparata con farina di grano duro, acqua e sale e poi tagliata a pezzetti.
Questi piatti tipici vanno accompagnati con uno dei vini DOC del luogo come il Matera Rosso, oppure un "Matera" Primitivo od il "Matera" Rosso Jonico; se si preferiscono i vini bianchi, invece, segnaliamo il "Matera" Greco ed il "Matera" Bianco.

Matera, come Venezia, è una città unica nel suo genere che merita di essere visitata almeno una volta nella propria vita.
Loreto (an)
Loreto Loreto: tra fede e spiritualità
Loreto è un comune anconetano che sorge sulla sommità di una modesta altura e circondata da un'ampia campagna.
La principale attrazione è il Santuario della Santa Casa di Loreto intorno al quale tutta la città si è sviluppata.
Secondo la tradizione il santuario ospita la celebre reliquia della Santa Casa di Nazaret, ovvero la casa dove la Vergine Maria nacque, visse e ricevette l'annuncio della nascita miracolosa di Gesù: sempre secondo la tradizione, quando i crociati furono espulsi definitivamente dalla Palestina, le pareti in muratura della casa della Madonna furono trasportate "per ministero angelico", prima Illiria in e poi nel territorio di Loreto. La tradizione racconta che “più di settecento anni fa la gente del luogo, ancora immersa nel sonno, venne destata da una luce immensa ed improvvisa che dal cielo illuminava il paesaggio sottostante: tutti uscirono dalle case per ammirare lo straordinario avvenimento, senza però poter capire la fonte di quella luminosità, che sembrava essersi stabilita ne pressi di Recanati, in mezzo ad un bosco infestato dai briganti. Allorché il sole sorse dal mare, l’arcano fu svelato: una casetta, tenuta sospesa da bellissimi angeli, si librava nell’aria fino a posarsi su un colle coperto da un bosco di lauri. A tutte le persone accorse sul posto apparve la casa di Nazareth, quella che Gesù aveva abitato per trent’anni; tutt’intorno era ancora profumo di fiori e si diffondeva un canto melodioso e celestiale.

La piazza che dà accesso alla basilica è sicuramente una delle più belle delle Marche. Al centro della piazza si staglia la mirabile Fontana Maggiore, capolavoro barocco di Carlo Maderno e Giovanni Fontana, mentre sul lato sinistro del sagrato si scorge il monumento a Papa Sisto V.
La città, che circondata da una cinta muraria eretta a partire dal XIV secolo come difesa dalle incursioni turche, racchiude un piccolo borgo molto suggestivo pieno di negozi e locali.
La città di Loreto è anche profondamente legata all'aeronautica militare tanto che attualmente è sede della Scuola Lingue Estere Aeronautica Militare e all'entrata della città si vede un MB339 PAN esposto.

Nel settembre del 1995 Loreto ospitò “Eurhope” (Europe + hope) un grande incontro europeo dei giovani con il Papa Giovanni Paolo II che, davanti a più di 400.000 persone, disse: “Ecco la vostra Casa, la Casa di Cristo e di Maria, la Casa di Dio e dell’uomo!"

"La Santa Casa di Loreto è il primo Santuario di portata internazionale dedicato alla Vergine e vero cuore mariano della cristianità" (Giovanni Paolo lI).

  ► Gallery

Estate 2019 (54)
Estate 2019
Primavera 2019 (126)
Primavera 2019
Brasile 2019 (140)
Brasile 2019

  ► Curiosità

Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)
Il Piano Bernadotte
Il Piano Bernadotte Nell'estate del 1948, il Conte Folke Bernardotte fu inviato dalle Nazioni Unite in Palestina per mediare una tregua e tentare di negoziare un compromesso. Il piano di Bernardotte chiedeva allo Stato ebraico di consegnare il Negev e Gerusalemme alla Transgiordania in cambio della Galilea occidentale. Questo piano era simile ai confini che erano stati proposti prima del voto sulla spartizione, e che tutte le parti avevano rifiutato. Ora la proposta veniva offerta dopo che gli Arabi erano andati in guerra per impedire la spartizione ed era stato dichiarato uno stato ebraico. Sia gli Ebrei che gli Arabi rifiutarono il piano.
Ironicamente, Bernardotte trovo' tra gli Arabi poco entusiasmo per l'indipendenza. Egli scrisse nel suo diario:
"Gli Arabi palestinesi al momento non hanno una volontà loro.
Ne' hanno mai sviluppato un nazionalismo palestinese specifico. La domanda di uno stato arabo separato in Palestina e' pertanto relativamente debole. Semberebbe proprio che nelle circostanze attuali gran parte degli Arabi palestinesi sarebbe alquanto contenta di essere incorporata nella Transgiordania" 
Il fallimento del piano Bernardotte giunse quando gli Ebrei cominciarono ad avere maggior successo nel respingere le forze arabe d'invasione e nell'espansione del loro controllo sui territori esterni ai confini della spartizione.
Il falso logo CE
Il falso logo CE Il logo CE indica la “conformità europea” del prodotto (risponde ai requisiti di sicurezza comunitari) e non "prodotto in Europa". Occhio: un altro marchio CE segnala invece la provenienza cinese (sta per China Export) senza dare alcuna garanzia. Nell’originale – ideato dal disegnatore Arthur Eisenmenger che inventò pure il simbolo € – la C e la E sono ricavate da due cerchi che si sfiorano, mentre nella versione cinese sono più vicini

  ► Aerei

Chengdu J-7
Chengdu J-7 Tipo: Caccia multiruolo
Ruolo: Caccia, Appoggio, Attacco
Nazione di Origine: Cina
Armamento: 1 o 2 cannoni da 30mm. Missili aria aria, varie combinazioni di razzi e bombe

Prestazioni: Velocità massima Mach 2,0. Autonomia 2230 km. Raggio di azione 850 km. Tangenza 18800 m
General Dynamics EF-111A Raven
General Dynamics EF-111A Raven Tipo: Aereo da guerra elettronica
Ruolo: Specializzato
Nazione di Origine: USA
Armamento: Nessuno; in rare occasioni due missili aria aria AIM-9 Sidewinder per autodifesa.

Prestazioni: Velocità massima 2,2 Mach (2350 km/h a 12200 m). Autonomia 6110 km. Raggio di azione 3220 km. Tangenza 13715 m
Panavia Tornado ECR
Panavia Tornado ECR Tipo: Aereo per guerra elettronica
Ruolo: Specializzato
Nazione di Origine: Italia, Germania, Regno Unito
Armamento: Missili AMRAAM

Prestazioni: Velocità massima 1.9 Mach (2337 km/h in quota). Raggio di azione 640 Km dalla base. Tangenza 15240 m

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Introduzione alla programmazione con l'uso di C# E-BOOK COMPLETO
Introduzione alla programmazione con l'uso di C# III° Parte I Database
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito.