Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Curiosità

Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire) e non è da considerare il padre ti tale aereo (come affermato dalla trasimissione RAI “Presa Diretta” del febbraio 2013). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)
Il Piano Bernadotte
Il Piano Bernadotte Nell'estate del 1948, il Conte Folke Bernardotte fu inviato dalle Nazioni Unite in Palestina per mediare una tregua e tentare di negoziare un compromesso. Il piano di Bernardotte chiedeva allo Stato ebraico di consegnare il Negev e Gerusalemme alla Transgiordania in cambio della Galilea occidentale. Questo piano era simile ai confini che erano stati proposti prima del voto sulla spartizione, e che tutte le parti avevano rifiutato. Ora la proposta veniva offerta dopo che gli Arabi erano andati in guerra per impedire la spartizione ed era stato dichiarato uno stato ebraico. Sia gli Ebrei che gli Arabi rifiutarono il piano.
Ironicamente, Bernardotte trovo' tra gli Arabi poco entusiasmo per l'indipendenza. Egli scrisse nel suo diario:
"Gli Arabi palestinesi al momento non hanno una volontà loro.
Ne' hanno mai sviluppato un nazionalismo palestinese specifico. La domanda di uno stato arabo separato in Palestina e' pertanto relativamente debole. Semberebbe proprio che nelle circostanze attuali gran parte degli Arabi palestinesi sarebbe alquanto contenta di essere incorporata nella Transgiordania" 
Il fallimento del piano Bernardotte giunse quando gli Ebrei cominciarono ad avere maggior successo nel respingere le forze arabe d'invasione e nell'espansione del loro controllo sui territori esterni ai confini della spartizione.
Il falso logo CE
Il falso logo CE Il logo CE indica la “conformità europea” del prodotto (risponde ai requisiti di sicurezza comunitari) e non "prodotto in Europa". Occhio: un altro marchio CE segnala invece la provenienza cinese (sta per China Export) senza dare alcuna garanzia. Nell’originale – ideato dal disegnatore Arthur Eisenmenger che inventò pure il simbolo € – la C e la E sono ricavate da due cerchi che si sfiorano, mentre nella versione cinese sono più vicini
Vegetariani più a rischio per allergie, depressione e tumori
Vegetariani più a rischio per allergie, depressione e tumori
Secondo uno studio austriaco,  chi rinuncia alla carne sarebbe più a rischio di allergie, problemi mentali e persino tumori rispetto a chi mangia proteine animali all'interno di una dieta equilibrata con frutta e verdura in abbondanza.
A sostenerlo sono alcuni studiosi dell'Università di Graz, che hanno esaminato i dati dell'Austrian Health Interview Survey, un sondaggio periodico sullo stato generale di salute della popolazione austriaca condotto su circa 1320 cittadini.
In pratica, gli esperti hanno notato che chi ha scelto di abbracciare la dieta vegetariana risulterebbe sì più attivo e meno propenso a vizi dannosi per la salute come fumo e alcol, ma al tempo stesso soffrirebbe maggiormente di ansia, depressione e allergie.
Secondo questo studio, per i vegetariani presi in considerazione il rischio di andare incontro a infarti o tumori sarebbe fino al 50% superiore. Inoltre, i vegetariani avrebbero anche una scarsa propensione a vaccinarsi e a poca prevenzione.
"Il nostro studio - hanno scritto gli autori - ha mostrato che gli adulti austriaci che seguono una dieta vegetariana sono meno sani in termini di allergie, tumore e problemi mentali. Inoltre, hanno una ridotta qualità della vita e più bisogno di trattamenti medici. Dunque occorre un forte programma di salute pubblica nel Paese per ridurre i rischi dovuti a fattori nutrizionali". I ricercatori, comunque, sottolineano anche il fatto che la ricerca necessita comunque di ulteriori approfondimenti.
File RAW fotografia
File RAW fotografia
Il metodo di memorizzazione delle immagini in formato RAW è usato dalla maggior parte delle fotocamere reflex e da alcune compatte.
Quando si usa il formato si registra fino all’ultimo briciolo di informazione immagazzinabile dal sensore.
I pixel, o fotocelle sulla superficie del sensore rispondono solo all’intensità della luce e non al colore; per ovviare a cio’ il produttore aggiunge uno strato colorato che funge da piccolo filtro sopra il sensore, uno per ogni pixel: questi “filtri” sono colorati di rosso, di verde o di blu. Al fine di riprodurre tutta l’informazione sul colore ogni pixel effettua una stima dei valori rilevati anche nei pixel adiacenti. Si chiama “demosaicing” ed e’ solo uno dei tanti passaggi effettuati dalla macchina al momento dello scatto.
L’immagine solitamente e’ immagazzinata usando 10 o 12 bits di data per ogni colore: piu’ alto e’ il numero di bits e maggiore sara’ la gamma dinamica rappresentabile.
Il .jpg ad esempio viene registrato a 8 bit e quindi la macchina di fatto cancella alcune informazioni al momento di generare il file.
Il formato RAW salva dunque l’immagine nella sua forma grezza.
La differenza tra Raw e JPG e’ che un jpeg, quando viene importato nel computer, è già stato processato.
Il processo per memorizzare le foto è il seguente: per prima cosa l’immagine viene “colta” dal sensore: quanto sia nitida dipendera’ dalla qualita’ delle lenti usate e quanto sia a fuoco dall’apertura del diaframma. Nessuna delle due cose puo’ essere modificata dopo aver scattato.
Successivamente la macchina legge il sensore in base agli ISO impostati. Grazie agli ISO di fatto assegniamo dei valori di luminosita’ ai pixel. Neanche questo puo’ essere modificato dopo lo scatto.
A questo punto le informazioni sono immagazzinate come file RAW.
Se stiamo scattando in formato jpeg allora la macchina effettuera’ ora l’impostazione del bilanciamento del bianco in base a come lo abbiamo settato, applicherà una maschera di contrasto e gestirà la saturazione del colore in base ai settaggi.
Se invece abbiamo scatttato RAW potremmo modificare questi parametri anche dopo.
VANTAGGI DEL RAW
  • Meno distruttivo : se modifichi il jpg al computer effettui la seconda conversione e quindi una piccola, sepure poco sgnificativa perdita di informazioni , ci sara’. col RAW no.
  • Potenza del dettaglio: in una foto ben scattata si avra’ una resa nel dettaglio superiore al jpeg che , comprimendo, sacrifica i dettagli meno visibili.
  • Gamma dinamica: il RAW riesce ad immagazzinare una gamma dinamica piu’ ampia e quindi cogliera’ luci piu’ alte e ombre piu’ scure rispetto oa quanto farebbe un jpeg, mantenendo quindi un maggior dettaglio
  • Selezione del bilanciamento del bianco: una grande vantaggio, forse il maggiore. Non e’ piu’ necessario effettuare il bilanciamento del bianco in fase di scatto essendo possibile modificare questa impostazione in fase di importazione dell’immagine.
  • Settaggi di scatto: e’ possibile disinteressarsi completamente delle impostazioni di nitidezza e saturazione poiche’ anche questi sono modificabili in fasse di importazione.
  • La scelta dello spazio colore: puo’ esere utile scattare le foto usando lo spazio colore AdobeRGB, capace di registrare una piu’ ampia gamma di colori. Questa scelta puo’ essere effettuata in fase di importazione dell’immagine scegliendo tra AdobeRGB o sRGB.
  • L’output a 16 bit: e’ possisbile salvare immagini con 16 bit di dati per canale invece dei normali 8 bit. Questo puo’ essere molto importante per immagini destinate ad essere fortemente manipolate.
Frequenze della polizia
Frequenze della polizia
Polizia, ambulanze, pompieri trasmettono in FM (frequenza modulata) dai 60 MHz ai 80MHz poi vi sono le radio che vanno da 98 a 108 MHz e segue l' aeronautica che va da 110 a 140 MHz. 

Nutella
Nutella La nutella nasce nel 1963 quando la Ferrero decise di modificare la ricetta della Super Crema. La prima confezione di Nutella uscì dallo stabilimento nel 1964
La Sigla A113 (animazione)
La Sigla A113 (animazione)
Si tratta di un riferimento per chi ha seguito il corso di animazione grafica o di effetti speciali al California Institute of the Arts
Molti  registi, sceneggiatori e produttori hanno tutti iniziato la loro educazione e carriera nel prestigioso istituto, specializzandosi in un’aula specifica, la A 133
Se l’operatore incaricato al montaggio di certi cartoni animati è passato dalla classe A 133 del California Institute of the Arts, c’è una buona probabilità che lasci una piccola sorpresa ai colleghi.
Alcuni esempi di trovano in Toy Story, Monsters & Co.e Up
Il codice compare anche in trasmissioni come: American Dad, Rugrats, I Simpsons, South Park, A Bug’s Life, Alla ricerca di Nemo, Gli Incredibili, Cars, Ratatouille, WALL-E, Lilo & Stitch, I Robinson: una famiglia spaziale, Hunger Games, The Avengers, Mission: Impossible, Star Wars, Terminator Salvation.

Carburante degli aerei
Carburante degli aerei I combustibili utilizzati in aviazione sono di ddiversi tipi: Avgas 100LL (Aviation Gasoline 100 Low Lead)  è una benzina ad alto numero di ottani rispetto alla comune benzina verde per automobili (in media sui 120 ottani) anche se per semplicità viene indicata 100 ottani. La sigla LL, cioè Low Lead (basso tenore di piombo) indica una benzina Avio in cui il vecchio additivo antidetonante piompo tetraetile è stato enormemente ridotto di percentuale in quanto molto inquinante. La benzina per aviazione o avgas si riconosce a colpo d'occhio perchè è di colore azzurro mentre quella per autotrazione è appunto verdognola. L'additivo colorante non altera minimamente le caratteristiche del combustibile in quanto è un elemento neutro. Tendenzialmente la benzina avio si presenta molto più volatile di quella verde per autovetture con conseguente maggior emissione di gas ed esalazioni. Per questo motivo è una sostanza molto pericolosa ed estremamente incendiabile. Il rifornimento di aerei a pistoni deve essere effettuato con la massima precauzione in quanto anche una semplice scintilla è pericolosissima.
Nei motori turboelica e turbina si usa invece il carburante Jet-A1 che è una leggera variante del comune cherosene per lampade e stufe (non è però la stessa cosa). 
I militari usano varianti particolari come il JP-4

ius primae noctis
ius primae noctis
Il “diritto della prima notte” è passato alla Storia come il diritto del feudatario di trascorrere con le mogli dei suoi servi della gleba la prima notte di nozze. In realtà si trattava di una tassa (in denaro, non in natura) chiesta dal signore in cambio del suo assenso al matrimonio. 
Il mito moderno relativo all’epoca medioevale si sviluppò a partire dall’Illuminismo, che ebbe una propensione a denigrare il Medioevo.
Furono per primi i giuristi del Medioevo morente a fantasticare di un simile diritto, che sarebbe esistito in un passato lontano anche dalla loro epoca, interpretando in modo errato alcuni tributi che venivano pagati dai villani ai signori al momento del matrimonio. Essi scambiarono il maritagium o foris maritagium come un riscatto di un antico diritto reale del signore sugli sponsali
Maria Antonietta non invitò il popolo a mangiare brioche
Maria Antonietta non invitò il popolo a mangiare brioche
La tradizione attribuisce a Maria Antonietta d’Asburgo-Lorena, moglie di Luigi XVI, di aver replicato con queste parole sprezzanti a chi le comunicava che il popolo affamato reclamava il pane: “Se non hanno pane, che mangino brioche!”. 
In realtà fu la storiografia rivoluzionaria ad attribuire queste parole all’impopolare sovrana (ghigliottinata nel 1793) prendendo spunto da una frase analoga che l’illuminista Jean-Jacques Rousseau, nelle sue Confessioni, attribuì a una non meglio precisata principessa.
Eva non offrì ad Adamo una mela
Eva non offrì ad Adamo una mela
“Allora la donna vide che l’albero era buono da mangiare, gradito agli occhi e desiderabile per acquistare saggezza; prese del suo frutto e ne mangiò, poi ne diede anche al marito, che era con lei, e anch’egli ne mangiò” (Genesi, 3: 6). 
La Bibbia racconta che Adamo ed Eva mangiarono il frutto dell’albero della conoscenza del Bene e del Male, contravvenendo alla proibizione di Dio. Per questa ragione i due furono scacciati dall’Eden, perdendo i privilegi di cui godevano al momento della creazione. La decisione di mordere questo frutto fu dunque il “peccato originale” in conseguenza del quale Dio condannò per sempre l’uomo a un’esistenza difficile, degradata dal punto di vista morale, fisico e spirituale. 
Nel testo, però, non è specificato di quale frutto si trattasse. Molti commentatori hanno ritenuto che fosse un fico, anche perché, poche righe più avanti, la Bibbia riferisce che, appena Adamo ed Eva “si accorsero di essere nudi, intrecciarono foglie di fico e se ne fecero cinture” (Genesi, 3: 7). 
Altri hanno ipotizzato che si trattasse di un grappolo d’uva, di un cedro o di un melograno. L’identificazione dell’albero con un melo avvenne solo durante il Medioevo, forse per via di un’assonanza presente nella lingua latina, in cui malum è sia il male sia la mela: l’albero della conoscenza del male può essere diventato, per un errore di traduzione, un melo.
Una svista, o un’interpretazione, che poi ebbe molta fortuna, coinvolgendo anche altre espressioni linguistiche: il “pomo d’Adamo”, ovvero la sporgenza della cartilagine nel collo frequente negli uomini dopo la pubertà, è detto così con riferimento al “peccato” reso possibile dalla maturità sessuale. 
La scelta della mela fu aiutata dalla tradizione: la simbologia della mela è presente in molte altre culture. Nei miti greci, dove una mela è il frutto che Paride dà in premio ad Afrodite designandola la più bella tra le dee dell’Olimpo; ma anche nell’iconografia medioevale, dove accanto al melograno è simbolo di fertilità. Dalla tradizione biblica la mela passò a sua volta fuori dall’ambito sacro: fu una mela posta sulla testa del figlio quella che Guglielmo Tell, leggendario eroe svizzero, dovette colpire con una freccia; ed è con una mela che la strega cattiva avvelena Biancaneve nella favola dei fratelli Grimm. Una continuità che arriva fino alla mela come simbolo di New York, ma anche della casa discografica fondata dai Beatles e all'Apple: la mela morsicata, secondo alcuni simbolo di conoscenza.
Le piramidi non le costruirono gli schiavi
Le piramidi non le costruirono gli schiavi
La conferma viene dagli scavi archeologici nella piana di Giza, che hanno portato alla luce le tombe dei manovali che 4.500 anni fa parteciparono alla costruzione delle piramidi di Cheope e Chefren: erano egizi e non schiavi (che in Egitto erano soltanto prigionieri di guerra stranieri). 
I grandi progetti di interesse nazionale, piramidi ma anche dighe, erano affidati alla popolazione locale, tenuta a un periodo di lavoro obbligatorio in occasione delle piene del Nilo, quando i campi non erano coltivabili. 
Lavorare per l’ultima dimora del faraone garantiva un ottimo vitto: le famiglie più ricche inviavano ogni giorno 21 vitelli e 23 montoni ai cantieri, in cambio di sgravi fiscali. 
Poteva però capitare che vettovaglie o salari arrivassero in ritardo. Allora gli operai si “coricavano”, secondo l’espressione egizia, ovvero scioperavano. Secondo le testimonianze che ci sono pervenute accadde varie volte: una delle più importanti descrizioni è in un papiro conservato al Museo Egizio di Torino, che riporta le proteste avvenute nel 29° anno di regno di Ramses III (intorno al 1180 a. C.). Si tratta di un’epoca successiva alla costruzione delle piramidi, durante la quale, però, gli operai addetti alle tombe monumentali (per esempio nella Valle dei Re) avevano a disposizione villaggi dove vivere comodamente, con tanto di scuole. 
Come nacque allora la credenza? La colpa fu degli storici greci, che non riuscivano a immaginare la costruzione di quegli edifici senza l’impiego di masse di schiavi. Ma anche della Bibbia, dove si dice che la schiavitù era diffusa in Egitto.
Confondere la genialità con l’intelligenza e la sregolatezza
Confondere la genialità con l’intelligenza e la sregolatezza
Il genio non è un uomo più intelligente o più abile de­gli altri, ma uno che pensa in modo diver­so e fa cose che essi non potrebbero mai fare. Alcuni eccellono in un solo campo, per esempio la musica, come Mozart o Beethoven, altri in diversi campi, come Michelangelo, che era scultore, pittore ed architetto. O Leonardo, che si poneva problemi inimmaginabili nella sua epo­ca, o Galileo, che ha rivoluzionato la fisi­ca e l'astronomia.
I geni militari fanno mosse che agli al­tri non verrebbero mai in mente perché guardano dove guardano tutti. Napoleo­ne a Tolone con un colpo d'occhio ha vi­sto che spostando l'artiglieria in un luo­go diverso, la flotta inglese sarebbe sta­ta sconfitta. Cesare a Fàrsalo ha lancia­to un attacco da un punto così impreve­dibile che l'esercito nemico è fuggito nel panico. Spesso essi hanno anche una grande versatilità. Napoleone ha rifor­mato i codici e l'urbanistica, Cesare era un bravo ingegnere e un grande scritto­re, Alessandro un fondatore di città.
Non sempre queste straordinarie ca­pacità portano ad una personalità armo­nica. I grandi uomini compiono anche azioni sconcertanti, esagerate, o errori grossolani. Alessandro beveva in modo smodato, Napoleone si è fatto intrappo­lare a Mosca, Cesare ha licenziato la sua scorta appena prima di essere ucciso. E tutti e tre avevano spaventosi eccitamen­ti nervosi che sfociavano in crisi epiletti­che. Ma è sbagliato associare genio a sre­golatezza. La sregolatezza è più frequen­te nei mediocri che si abbandonano ad eccessi, esagerano per differenziarsi da­gli altri, per apparire originali. I veri ge­ni invece sono capaci di progetti a lungo termine, sono estremamente rigorosi e si prendono cura anche dei minimi detta­gli perché non sopportano ciò che non è perfetto.
Un’altra caratteristica del genio è che riesce sempre a vedere la soluzione più semplice, più diretta, quella che, succes­sivamente, gli altri troveranno ovvia. Ma che sia ovvia lo vedono solo dopo, prima la ritenevano irrealizzabile, assur­da. Il giudizio che soprattutto i colleghi e gli addetti ai lavori danno del genio è per­ciò quasi sempre sbagliato: prima lo con­siderano troppo fantasioso, poi banale. E nemmeno il conclamato riconoscimen­to li rende obbiettivi perché se prima lo deridevano, dopo lo invidiano.
Disastro del lago Nyos
Disastro del lago Nyos
Il Nyos, in Camerun, non è una leggenda ma una triste pagina di cronaca nera. La notte del 21 agosto 1986, vennero uccise più di 1.700 persone.
Il lago Nyos si estende su una superficie di circa 1,5 km quadrati ed è di oltre 200 metri di profondità.
Era noto da anni che l'acqua nel Lago Nyos era estremamente arricchito in CO 2 disciolta: il lago è sovrapposto su una fonte di origine vulcanica, che sembra rilasci CO2 assieme ad altri gas. 
Tuttavia la maggior parte di questo gas non si dissolve in atmosfera, ma piuttosto si dissolve nelle acque sul fondale del lago. 
Ad una profondità di oltre 200 metri, il peso delle acque del profondo lago esercita notevoli pressioni sulle acque dei fondali.
Questa pressione permette di confinare la CO 2 a tali profondità e dissolversi nelle acque del fondale,senza mai uscire in superficie, più o meno allo stesso modo in cui il tappo di una bevanda gassata impedisce al gas di gorgogliare fuori dal suo contenitore.
Ad una profondità di 200 metri, l'acqua può contenere 15 volte il proprio volume di CO2.
È stato stimato che ogni litro di acqua nella parte bassa del lago potrebbe contenere tra 1 e 5 litri di CO2.
L'acqua nel lago di Nyos è normalmente di un limpido, profondo colore blu. La post-fotografia dopo l'eruzione  ha mostrato che è composto anche di acqua torbida rosso bruno, che sembra formata dalla ossidazione del ferro di cui sono ricchi i fondali del lago che sono che sono risaliti fino in superficie durante la manifestazione dell'agosto 1986. 
La gigantesca nube ricca di CO2 è stato espulsa rapidamente come un jet dal lago Nyos,con una velocità di circa 100 km all'ora.
La nuvola avvolse rapidamente le case all'interno del cratere che erano a 120 metri sopra la riva del lago. 
A causa della densità del gas di circa 1,5 volte più denso dell'aria, la massa gassosa abbracciò la superficie e discese a valle lungo il lato nord del cratere.
La nube mortale fu di circa 50 metri di spessore ed avanzava a una velocità di 20-50 km all'ora. 
Questa nebbia e persistente si diffuse in forma concentrata su un area di 23 km, portando morte improvvisa per i villaggi di Nyos, Kam, Cha e Subum. 
I corpi di quelli che sono morti erano generalmente privi di traumi. La maggior parte delle vittime sembra essersi semplicemente addormentata e morta per asfissia: molti sono morti nei loro letti.
Dopo aver esaminato il luogo del disastro, gli scienziati sono stati divisi in due campi sul meccanismo di una così rapida espulsione di CO 2:
  • La CO 2 avrebbe potuto scoppiare attraverso il lago come il risultato di una eruzione improvvisa di gas;
  • La CO 2 potrebbe essersi accumulata lentamente nella parte bassa del lago, per poi essere rilasciata bruscamente dal ribaltamento delle acque sul fondo causato da un qualche meccanismo sconosciuto. 
Kilogrammopeso, Peso, Massa, Newton
Kilogrammopeso, Peso, Massa, Newton
Per kilogrammopeso, si intende la massa misurata sulla Terra, (cioè la massa sottoposta alla "nostra" forza gravitazionale); noi generalmente (erroneamente) chiamiamo peso il chilogrammo peso.
Un corpo di peso di 70Kg è in effetti 70*9,81=686,7 Newton; oppure ha una massa di 70Kg.
Si capisce quindi che lo stesso corpo sulla Luna cambierebbe il suo peso (70*1,63=117.1 Newton)
La massa è la quantità di materia presente in un corpo ed è espressa in kilogrammi (kg); il peso è la forza di attrazione che ha un corpo dal il centro della terra ( o un altro corpo/paineta/stella/ecc.) ed è espressa in newton (N)  per trovare il peso di un corpo:

Peso = massa x accellerazione di gravità

Il Newton (N) è a forza, simbolo N, pari alla forza in grado di impremere alla massa di 1 kg un'accelerazione di 1 m/s².

Potenza
Potenza
La potenza in Fisica si può definire come il rapporto tra il lavoro compiuto da una forza e l’intervallo di tempo impiegato a compiere tale lavoro.


Quando ci muoviamo lungo una rampa di scale compiamo un lavoro. Possiamo portare a termine lo stesso lavoro lentamente, senza stancarci, oppure in velocità, impiegando meno tempo. Salendo di corsa le scale ci stanchiamo di più ma dimostriamo di essere più potenti.
L’unità di misura del SI (Sistema internazionale) per la potenza è il watt che corrisponde al lavoro di 1 joule fatto in 1 secondo: 1 W = 1 J/s
Esempio: 
Supponiamo di spingere un corpo con una forza di 20 N per 30 m in un tempo di 5 secondi. Qual è la potenza ?
Calcoliamo prima il lavoro fatto e poi dividiamo per il tempo impiegato: 

L = F * s = 20 N * 30 m = 600 J 
P = (600 J)/(5 s) = 120 W  

I multipli del watt sono il chilowatt kW ed il megawatt MW. 
In Italia si usa anche il cavallo vapore, simbolo CV. Il cavallo vapore è un multiplo del watt: 1 CV = 735,5 W. Pertanto, se un’automobile ha una potenza di 115 CV ad essa corrispondono 115 × 735,5 W = 84,6 kW.
Che Guevara assassino feroce
Che Guevara assassino feroce
In Argentina, dove Ernesto Guevara nacque nel 1928, tra i giovani è diventato un modo di dire: «Tiengo una remera del Che y no sé por qué». Vuol dire: «Ho una maglietta del Che, ma non so per quale motivo», è caratteristico per i seguaci di un culto non di conoscere la vita reale del loro eroe, la vera storia. 
Il Che divento' una icona, un mito , per quasi tutti fu il difensore dei deboli e degli oppressi, ma non tutti sanno che El Che fu anche un sanguinario assassino; l’eroe dei “diseredati” ebbe un ruolo fondamentale nella costruzione dei campi di lavoro forzato di Guanahcabibes, dove finirono i cittadini che si erano macchiati di “gravi crimini contro la morale rivoluzionaria”, ovvero religiosi, ribelli non politici e omosessuali e “pervertiti” ( concetto molto vago).  Sulle porte dei campi di lavoro c’era una scritta eloquente: ” Il lavoro vi renderà uomini”.
Da anni, il progetto Cuba Archive sta facendo il conto delle vittime della rivoluzione cubana, per le quali esista conferma da parte di almeno due fonti indipendenti e alle quali sia possibile attribuire un nome.
Quattordici nemici, o presunti tali, furono eliminati dal comandante, direttamente o su suo ordine, in Sierra Maestra, durante la guerriglia contro gli uomini di Fulgencio Batista, tra il 1957 e il 1958. Dal 1 al 3 gennaio del 1959, appena catturata la cittadina di Santa Clara, mandò a morte altre 23 persone. Ma il grosso del sangue il futuro idolo dei pacifisti lo versò in qualità di comandante della Cabaña, la fortezza dell’Havana adibita a prigione. Tra il 3 gennaio e il 26 novembre del 1959 sono attribuite a Guevara ben 164 esecuzioni. Vista la metodologia dell’indagine, si tratta di numeri necessariamente approssimati per difetto: altre fonti parlano di almeno quattrocento uccisioni solo nel carcere dell’Havana.
Javier Arzuaga, il cappellano basco che a La Cabaña era incaricato di confortare i condannati a morte, ha raccontato quei mesi da incubo ad Alvaro Vargas Llosa (“Il mito Che Guevara e il futuro della libertà” pubblicato in Italia da Lindau): «c’erano circa ottocento prigionieri in uno spazio adatto per non più di trecento persone: personale militare e di polizia di Batista, alcuni giornalisti, alcuni uomini d’affari e commercianti. Il tribunale rivoluzionario era composto da uomini della milizia. Che Guevara presidiava la corte d’appello. Egli non modificò mai una sentenza. Io visitai quelli del braccio della morte. Girava la voce che io ipnotizzavo i prigionieri perché rimanessero calmi, così il Che ordinò che io fossi presente alle esecuzioni. Dopo che io lasciai l’incarico a maggio, vennero giustiziate molte più persone, ma io personalmente fui testimone di cinquantacinque esecuzioni. C’era un Americano, Herman Marks, che dava l’idea di un criminale. Noi lo chiamavamo “Il Macellaio” perché godeva nel dare l’ordine di sparare. Io supplicai molte volte il Che a nome dei prigionieri. Ricordo particolarmente il caso di Ariel Lima, un ragazzo. Il Che non si mosse. Né lo fece Fidel a cui andai a fare visita. Fui così traumatizzato che alla fine di maggio di quell’anno mi fu ordinato di lasciare il villaggio di Casa Blanca dove si trovava La Cabaña  e dove dicevo messa da tre anni. Andai in Messico per cure. Il giorno che andai via, il Che mi disse che noi tentammo di modificare le opinioni dell’altro a vicenda ma senza risultato. Le sue ultime parole furono: “Quando noi ci toglieremo la maschera ci scopriremo nemici”».. Nessuna pietà. Lo confermano le parole del giurista José Vilasuso, che all’epoca faceva parte del tribunale di La Cabaña: «Le direttive del Che stabilivano che dovessimo agire nel modo più risoluto, vale a dire che [gli accusati] erano tutti assassini e che il modo rivoluzionario di procedere doveva essere implacabile». Un ex comandante delle truppe di Guevara, Jaime Costa Vázquez, ha raccontato che i suoi ordini erano chiarissimi: «Nel dubbio, fucilare».
È stato calcolato, e lo riporta lo scrittore Humberto Fontova, che Guevara fece uccidere sul posto tra il 70 e l’80 per cento dei contadini che si opponevano alla sua avanzata
Luis Guardia e Pedro Corzo, due ricercatori della Florida che stanno lavorando a un documentario su Guevara, hanno ottenuto la testimonianza di Jaime Costa Vàzquez, un ex-comandante dell’esercito rivoluzionario conosciuto come «El Catalàn», che riteneva che le numerose fucilazioni attribuite a Ramiro Valdés, futuro Ministro degli Interni di Cuba, fossero diretta responsabilità di Guevara, in quanto sulle montagne Valdés era sotto i suoi ordini.

Link: 216 DOCUMENTED VICTIMS OF CHÉ GUEVARA IN CUBA: 1957 TO 1959
Link: Progetto: "Cuba Archive"

FRASI DI CHE GUEVARA:
«Qui nella giungla cubana vivo e assetato di sangue»
«Amo l'odio, bisogna creare l'odio e l'intolleranza tra gli uomini, perché questo rende gli uomini freddi e selettivi e li trasforma in perfette macchine per uccidere.»
GLI ORRORI DEL COMUNISMO
GLI ORRORI DEL COMUNISMO
Le persone uccise dai vari regimi comunisti non sono mai state censite correttamente; una stima può essere fatta solo in maniera approssimativa.
La lista delle vittime è stata presa da: "Libro nero del Comunismo", di Stéphane Courtois.

Urss: 20.000.000 di morti,
Cina: 65.000.000 di morti,
Vietnam: 1.000.000 di morti,
Corea del Nord: 2.000.000 di morti,
Cambogia: 2.000.000 di morti,
Europa dell’Est: 1.000.000 di morti,
America Latina: 150.000 morti,
Africa: 1.700.000 morti,
Afghanistan: 1.500.000 morti,
movimento comunista internazionale e partiti comunisti non al potere : circa 10.000 morti.

Alcuni leader comunisti responsabili di stragi: Ho Chi Minh (Vietnam), Pol Pot (Cambogia), Castro (Cuba), Tito (Yugoslavia), Kim II Sung (Corea Nord), Ceausescu (Romania), Stalin (URSS), Lenin (URSS), Mao Ze Dong (Cina), Najibullah (Afghanistan), Dimitrov (Romania), Dzerzinski (URSS), Hoxha (Albania), Ordzonikidze (Urss), Guzman (Perù), Neto (Angola), Milosevic (Serbia), Honecker (DDR), Menghistu (Etiopia)

LINK: DEATH BY GOVERNMENT By R.J. Rummel
Tesla (Unità di misura)
Tesla (Unità di misura)
Si chiama tesla l’unità di misura del campo magnetico (T). Deve il suo nome allo scienziato statunitense di origine croata Nikola Tesla che si occupò appunto di elettricità e campi magnetici: il tesla corrisponde al campo magnetico che si origina al centro di una circonferenza formata da un filo elettrico al cui interno scorre una corrente di un milione di ampère, cioè la corrente necessaria a illuminare circa 200 mila lampadine da 100 watt. Il tesla è un’unità di misura molto grande che infatti viene utilizzata di rado: sarebbe come dover misurare in tonnellate il peso di una mela. In tutte le applicazioni pratiche si preferisce perciò utilizzare il gauss (G), pari a 1 decimillesimo di tesla. Il campo magnetico terrestre, ad esempio, è compreso tra 0,2 e 0,6 gauss, cioè misura meno di un decimillesimo di tesla! Campi magnetici misurabili in tesla sono quelli originati nelle stelle, pari a centinaia di migliaia di tesla, e quelli usati a scopo scientifico: nei laboratori inglesi del centro di ricerca Jet della Comunità europea, si originano campi magnetici pari a 2,8 T per lo studio della fusione nucleare a confinamento magnetico.
Alla Conférence Générale des Poids et Mesures tenutasi a Parigi nel 1960, venne dato il nome "tesla" all'unità di misura

Il tesla può anche essere rappresentato come:
Forze fondamentali
Forze fondamentali
Sappiamo che nell'universo agiscono quattro tipi di forze : la forza gravitazionale, la forza elettromagnetica, la forza nucleare debole e la forza nucleare forte. 

La forza di gravità
La forza di gravità è stata la prima ad essere identificata dai fisici. La legge di gravitazione, formulata nel 1860 da Newton, stabilisce che due masse si attraggono con una forza proporzionale al prodotto delle masse e inversamente proporzionale al quadrato della distanza. All'inizio del XX Secolo è stato chiarito che la forza di gravità ha un effetto anche sui fotoni, a tal punto che intere galassie possono agire da lenti gravitazional e curvare i raggi luminosi o le onde radio (fenomeno osservato nel 1979). Sebbene la gravità agisca su ogni corpo, il suo effetto nella fisica delle particelle è trascurabile, poiché la sua intensità è trascurabile rispetto a quella delle altre interazioni. 
Molte delle sue proprietà rimangono tuttavia ancora misteriose: il suo ruolo nella teoria quantistica, l'esistenza di un portatore di tale forza (il gravitone), il comportamento dei buchi neri, ecc.

La forza elettromagnetica 
La forza tra cariche elettriche stazionarie venne stabilita circa un secolo dopo quella gravitazionale, ad opera di Coulomb; essa presenta delle analogie con quest'ultima, anche se può essere sia attrattiva che repulsiva. L'altro aspetto della forza elettromagnetica è la forza tra cariche in moto. Gli aspetti elettrici e magnetici della forza elettromagnetica sono stati sintetizzati nella fisica classica nelle equazioni di Maxwell. La forza elettromagnetica influenza la vita quotidiana, in quanto il legame tra atomi, molecole e lo stesso legame tra nucleo ed elettroni nell'atomo è di natura elettromagnetica.

La forza debole
L'interazione debole è responsabile di diversi fenomeni, tra cui il decadimento beta (ad esempio la trasformazione di un neutrone in un protone). Il range di azione dell'interazione debole è estremamente ridotto, anche rispetto a quello, già piccolo, dell'interazione nucleare forte. La teoria dell'interazione debole, inizialmente affrontata da Fermi negli anni '30, ha subìto diverse modifiche, e in anni recenti (1960-1970) è stata formulata una teoria che unifica l'interazione debole e quella elettromagnetica nella cosidetta interazione elettro-debole, mediata dalle particelle W*, W- e Z0 (bosoni vettori), osservati per la prima volta al CERN nel 1982.

La forza nucleare forte 
La forza nucleare forte è una forza attrattiva a corto range tra i nucleoni. Questa forza è responsabile della stabilità nucleare e dei processi di creazione di altre particelle nelle collisioni nucleari. Essa ha influenza su molte delle particelle nucleari, ad eccezione dell'elettrone, del muone, del neutrino e dei portatori della forza elettrodebole. Molti aspetti della forza forte sono ancora oggetto di indagine; ad esempio non è chiaro se essa agisca lungo la congiungente le due particelle in interazione, il ruolo di un terzo corpo in presenza dei primi due, ecc.

La forza elettromagnetica e la forza nucleare debole sono in effetti due manifestazione della stessa forza: la forza elettrodebole.
Tutti i fenomeni noti sono spiegabili in quanto manifestazioni di queste forze (o almeno dovrebbero).
Lo sforzo attuale dei fisici è quello di unificare tutte le forze in una sola forza, cioè di dimostrare che tutte le forze presenti in natura, anche se appaiono diverse, in effetti sono manifestazioni di una sola forza.
Fotografie in alta gamma dinamica High Dynamic Range (HDR).
Fotografie in alta gamma dinamica High Dynamic Range (HDR).
La fotografia HDR consiste nel superare i limiti fisici del sensore aumentando la gamma dinamica estesa grazie alla possibilità di combinare in post produzione o in fase di scatto 3 o più foto con diverse esposizioni, questo comporta che le scene fotografate debbano essere statiche ed è quindi necessario un treppiedi.
L'HDR è un sistema di elaborazione digitale applicato sulle fotografie, consiste nel produrre immagini con valori di luminosità molto più alti delle normali foto, che generalmente arrivano ad un intervallo dinamico di luminosità di 255:1 contro un rapporto di 10.000:1 tipico dell'occhio umano.Una normale foto in JPG scattata con una macchina fotografica compatta memorizza per ogni pixel della foto dei valori di RGB (Rosso Verde Blu) con profondità di 8bit che producono una gamma di 16 milioni di colori.
Una foto scattata con una reflex digitale in formato RAW (utilizzando tutto il sensore), arriva a 10/12/14 bit di valori di luminosità, mentre una foto in HDR arriva a valori di 16bit o 32bit, il che equivale a conservare una quantità tale di informazioni che copre tutto l'intervallo possibile.
Le informazioni memorizzate in un'immagine HDR di solito corrispondono ai valori fisici della luminosità e della radianza che possono essere osservate nel mondo reale; in questo differiscono dalle informazioni memorizzate nelle normali immagini digitali, che memorizzano solo quali colori vanno riprodotti sullo schermo. 
I monitor LCD o CRT hanno un basso intervallo di gamma dinamica (LDR = low dynamic range) e quindi, per visualizzare una foto con un intervallo dinamico più alto (HDR = high dynamic range), occorre utilizzare una procedura di elaborazione digitale denominata TONE MAPPING (mappatura dei toni).Con la mappatura dei toni si recuperano i dettagli di luminosità della foto in HDR con profondità fino a 32 bit per pixel, il che significa un intervallo che parte dal buio assoluto alla luce piena.
Quando si parla di fotografia, si misura la luce in termini di valori di esposizione (EV). Questo è semplicemente una misura di quanta luce è passata attraverso una lente e va a colpire un sensore, un chip CMOS, o la vostra retina. I nostri occhi sono in grado di vedere con valori di 25 EV della gamma tonale a seconda delle condizioni di illuminazione. Le fotocamere più avanzate riescono a catturare da 1-15 EV.
Una scena esterna  con cielo in una giornata nuvolosa copre solitamente circa 4 EV e di solito si adatta bene  all'interno della gamma dinamica di un sensore della fotocamera digitale. Una parte illuminata di un edificio con cielo azzurro e nuvole bianche potrebbe essere una medio-alta gamma dinamica scena (8-10 EV), mentre una ripresa della scena in direzione del sole o anche il disco del sole potrebbe ottenere fino a 25 EV. 
L’Auto Exposure Bracketing (AEB) è una funzione disponibile in pressochè tutte le reflex, ma anche in molte fotocamere compatte; essa permette di effettuare più scatti variando automaticamente l’esposizione.Quando si utilizza l’AEB, la fotocamera effettuerà tanti scatti quanti sono stati selezionati nelle impostazioni, uno scatto sarà esposto correttamente, uno sottoesposto ed uno sovraesposto: se impostate l’AEB per 3 scatti con intervallo di 1 stop avrete 3 fotografie differenti: la prima sottoesposta di uno stop, la seconda esposta correttamente (sulla base della lettura esposimetrica effettuata) e la terza sovraesposta di uno stop.
Unendo questi scatti con un software adeguato posso ottenere delle foto in HDR.
Le regole base per il primo scatto sono le seguenti: No ai forti controluce. No ad un’eccessiva presenza di nero in foto (come nel caso di foto notturne scattate con esposizioni non troppo lunghe). No a cieli grigi. No al troppo sole.

fiscal cliff
fiscal cliff
Il concetto di Fiscal Cliff, che in italiano può essere tradotto come "precipizio fiscale", si riferisce all’insieme di tagli alla spesa e aumenti dell’imposizione fiscale che entrerà in vigore dal primo
gennaio 2013 se il partito democratico di Barack Obama e quello repubblicano non raggiungeranno un accordo su come ridurre il deficit statunitense.
Il termine è stato coniato dal governatore della Federal Reserve, Ben Bernanke, per mettere in guardia dai rischi che sta correndo il paese americano.
Alla mezzanotte del 31 dicembre 2012 si concluderanno una serie di agevolazioni fiscali introdotte dal governo Bush e, contemporaneamente, saranno attivate altre tasse introdotte dalle riforme del governo Obama e ancora non è chiaro come gli Stati Uniti intendano affrontare la situazione e, si teme ancor di più perché le stime sugli effetti del fiscal cliff parlano chiaro: riduzione del PIL, aumento della disoccupazione, recessione.
Tra i numerosi cambiamenti che il fiscal cliff comporterà, quelli maggiormente significativi saranno:
  •  la fine delle agevolazioni sulle tasse e trattenute dagli stipendi (che comporteranno un aumento di circa il 2% sugli oneri salariali);
  •  la fine di alcune interruzioni fiscali per le imprese;
  •  la fine del giro di tagli alle tasse del 2001-2003;
  •  la riduzione del minimo imponibile per le tasse;
  •  l’inizio del giro di tasse derivate dalla riforma sanitaria introdotta dal governo Obama.
Il Tax Policy Center ha stimato che il fiscal cliff aumenterà le tasse per circa il 90% degli Americani, aumentando la media delle aliquote fiscali di circa 5 punti percentuali. 


Nitroglicerina
Nitroglicerina La nitroglicerina è un composto chimico di formula bruta  C3H5O9N3 e struttura di triestere della glicerina con l'acido nitrico.
La nitroglicerina si prepara per nitrazione della glicerina con una miscela solfonitrica a una temperatura inferiore a 18 ºC. I composti di partenza utilizzati per produzione di nitroglicerina devono essere il più possibile puri: in caso contrario si ottiene una nitroglicerina impura che già durante la preparazione oppure durante la conservazione può alterarsi fino a esplodere spontaneamente.
La nitroglicerina pura si presenta come un liquido pesante oleoso e incolore, quasi insolubile in acqua ma miscibile con la maggior parte dei solventi organici, con punto di fusione a 13,1 ºC. Per riscaldamento a 180 ºC o per semplice urto la nitroglicerina esplode con estrema violenza; da ciò la pericolosità del trasporto e della conservazione, per cui la nitroglicerina viene usata come esplosivo solo in casi eccezionali. Rappresenta il costituente fondamentale di altri esplosivi più maneggevoli, come la dinamite e le polveri senza fumo tipo balestiti, ecc., che si preparano miscelando la nitroglicerina rispettivamente con materiali adsorbenti solidi come la farina fossile o gelatinizzandola con nitrocellulosa e altri ingredienti e con opportuni agenti stabilizzanti. 
La nitroglicerina è stata sintetizzata per la prima volta da Ascanio Sobrero nel 1847. Egli avvisò quante più persone poté di non riprodurne la sintesi, data la sua estrema instabilità e la conseguente pericolosità. Vedete, la detonazione della nitroglicerina produce una quantità di gas tale da occupare più di  1200 volte il volume originale a condizioni di temperatura e pressione normali (notare che, in seguito alla detonazione, i gas rilasciati sono estremamente caldi, pertanto occupano un volume ancora maggiore).  L’onda di pressione risultante dall’espansione dei gas è talmente potente da demolire edifici e uccidere le persone all’istante.
Curve isofoniche
Curve isofoniche
Sono le curve che descrivono in che modo i suoni vengono percepiti avendo lo stesso ‘volume’ sonoro, al cambiare della loro frequenza e intensità.
Sono rappresentate in un grafico specifico che ha sulle assi delle x la frequenza in Hertz, sull’asse delle y la pressione sonora in dB ‘puri’ non modificati dalla "scala A" e diverse curve, una per ogni ‘volume’ sonoro percepito, misurato in ‘phon’.
Sono grafici molto importanti che permettono di avere un riferimento su come l'orecchio umano reagisca alle diverse frequenze. Sono state ricavate elaborando i dati su un campione statistico sottoposto ad una serie suoni prodotti in una camera anecoica. Tale camera viene disegnata con lo scopo di ridurre al minimo le riflessioni sulle pareti in modo che l'ascoltatore sia raggiunto unicamente dal segnale diretto. Le curve indicano come l'orecchio umano reagisca diversamente alle varie frequenze in termini di intensità sonora percepita. Supponiamo di avere una sorgente sonora in grado di generare onde sinusoidali con frequenza variabile e ampiezza costante. Fissando l'ampiezza per esempio a 80 dBspl noteremmo che un ascoltatore percepisce le basse frequenze come aventi un volume molto basso e man mano che frequenza viene aumentata avrebbe la percezione che anche il volume aumenta (mentre la pressione sonora realmente generata è sempre di 80 dBspl). Questo comportamento si spiega con il fatto che l'orecchio umano ha una percezione diversa dell'intensità sonora al variare della frequenza. Le curve isofoniche sono dette tali in quanto indicano il valore di dBspl necessario per percepire un suono sempre allo stesso volume lungo ogni curva. La frequenza di riferimento per ogni curva è 1KHz e a tale frequenza, il valore di dBspl è pari al valore che identifica una particolare curva e che prende il nome di phon. Per esempio la curva isofonica a 40 phon è quella che a 1 KHz ha un'ampiezza di 40 dBspl. 
Prendiamo per esempio la curva da 80 phon e seguiamola dalle basse verso le alte frequenze. Vediamo che a 20 Hz è necessario produrre una pressione sonora di 118 dBspl e questo ci mostra come l'orecchio umano abbia una minore sensibilità alle basse frequenze. Scorrendo la curva verso le alte frequenze vediamo che affinché l'orecchio percepisca sempre la stessa intensità sonora sono necessari livelli di pressione sonora più bassi. A 1KHz incontriamo il valore di riferimento della curva isofonica che stiamo considerando, dunque 80 dBspl. Oltre questo valore vediamo che la curva ha un minimo in corrispondenza dei 3KHz e vediamo come affinché l'orecchio percepisca sempre la stessa pressione sonora, la frequenza di 3 KHz deve generare 70 dBspl. Confrontando questo valore con quello a 20 Hz notiamo una differenza di circa 50 dBspl in meno, è una differenza enorme. Questo valore di minimo dipende dal fatto che la frequenza di risonanza del canale uditivo è di circa 3 KHz e dunque tale frequenza viene percepita già a bassi valori di dBspl. Oltre i 3 KHz la curva risale mostrando il livello di dBspl necessario per avere la stessa percezione di volume alle alte frequenze. Le curve vengono mostrate per diversi valori di phon in quanto il comportamento dell'orecchio varia ai diversi valori della pressione sonora. Notiamo come per elevati valori della pressione sonora, l'andamento delle curve isofoniche è quasi piatto.
La curva isofonica più bassa di tutte viene denominata soglia di udibilità e indica la più piccola variazione di pressione che l'orecchio è in grado di individuare alle diverse frequenze. Ricordiamo che queste curve sono ottenute elaborando dati statistici e dunque che i valori che stiamo considerando possono avere differenze anche notevoli da individuo a individuo. 

Generazione di aerei
Generazione di aerei
Prima Generazione 1945-1955
Della prima generazione di caccia fanno parte i caccia subsonici con prese d'aria a geometria fissa, come il Gloster Meteor britannico ed il Lockheed P-80 Shooting Star americano.
I modelli più rappresentativi di questa generazione sono l'ME 262 nella fase del conflitto mondiale e l'F-86 Sabre e il MiG-15.

Seconda Generazione 1955-1960
La seconda generazione di caccia a reazione era già molto evoluta rispetto ai primi insicuri aerei a getto, grazie all'adozione di motori decisamente più potenti e sicuri (affogati nella fusoliera e non più nelle semiali) ma soprattutto grazie all'uso dell'ala a freccia che li rendeva capaci di raggiungere alte velocità subsoniche.
La seconda generazione ebbe una vita concettualmente e costruttivamente breve, perché in poco tempoesordì la terza generazione.
Tra i modelli più rappresentativi della seconda generazione si possono citare: North American F-100 Super Sabre, Convair F-102 Delta Dagger, Lockheed F-104 Starfighter, Republic F-105 Thunderchief, Convair F-106 Delta Dart, Mikoyan-Gurevich MiG-21, BAC Lightning, de Havilland DH.110 Sea Vixen, Hawker Hunter, Dassault Etendard, Dassault Mirage III, Saab 35 Draken

Terza generazione 1960-1970
La terza generazione esordì agli inizi degli anni Sessanta ed ebbe una vita operativa lunga.
Gli USA misero in campo l'F-4 Phantom, che in quegli anni stabilì numerosi primati di velocità, accelerazione, velocità di salita e quota. L'URSS mise in campo il MiG-23, un agile intercettore leggero da Mach 2, mentre la Francia realizzò il Dassault Mirage III, la Svezia il Saab 37 Viggen e la Cina lo Chengdu J-7. Questi velivoli, nonostante siano ormai superati, sono rimasti validi nei primi anni del XXI secolo, restando in servizio in numerose forze aeree in varie parti del mondo.
Questi caccia si scontrarono in diverse occasioni tra loro negli anni sessanta e settanta nelle guerre arabo-israeliane e nella Guerra del Vietnam. L' F-4 americano in particolare fu progettato come caccia dotato di un armamento pesante esclusivamente missilistico, ma fu ben presto adattato ad un impiego multiruolo montando anche un cannone da 20 mm a canne rotanti Vulcan.
Tra i modelli più rappresentativi si possono citare: il F-4 Phantom, il Saab37 Vigen, il MiG-23

Quarta generazione 1970-1995
Seguirono i caccia di quarta generazione con ala a forte freccia o a delta e prese d'aria a geometria variabile capaci di raggiungere Mach 2.
Gli aerei di quarta generazione sono caratterizzati da una buona elettronica di bordo, con capacità di colpire bersagli a lunga distanza (oltre ai 150 km) facendo affidamento sul radar di bordo e sui missili a lungo raggio, e non perdendo efficacia nei combattimenti a breve raggio, dove contano su una maneggevolezza e rapidità di risposta che portano la macchina a compiere potenziali evoluzioni che il pilota non può permettersi per non perdere conoscenza. Queste prestazioni ottenute grazie a studi aerodinamici avanzati, materiali compositi, motori molto potenti e comandi di volo elettronici fly-by-wire. Sono inoltre dotati di mitragliatrice fissa di bordo e piccoli e agili missili a breve raggio a ricerca di calore. La loro velocità massima è compresa tra Mach 2 e Mach 2,5.
In questi aerei il concetto dominante è la capacità "multiruolo", ovvero la capacità di compiere ogni sorta di missione, ripercorrendo la strada segnata 20 anni prima dall'F-4, ma questa volta potendo contare sulle tecnologie necessarie.
Tra i modelli più rappresentativi si possono citare: Grumman F-14 Tomcat, McDonnell Douglas F-15 Eagle, General Dynamics F-16 Fighting Falcon, McDonnell Douglas F-18 Hornet, McDonnell Douglas-BAe AV-8B Harrier II, Mikoyan-Gurevich MiG-29, Sukhoi Su-27, Panavia Tornado, Dassault Mirage 2000, Saab 37 Viggen.

Quarta generazione e mezza 1990-2005
I caccia di questa generazione sono cacciabombardieri che posseggono tutti i concetti della quarta generazione esaltandoli con l'uso dei nuovi materiali compositi, potenza dei motori e basso consumo di carburante ed elettronica, il tutto per facilitarne la manutenzione, l'aggiornamento e il dispiegamento, con grande risparmio economico e di ore lavorative del personale di terra; alcuni come l'EF-2000 hanno anche caratteristiche semi-stelth (ovvero anno una bassa segnatura radar in configurazione "pulita").
Tra i modelli più rappresentativi si possono citare: Boeing F-18E/F Super Hornet, Sukhoi Su-30, Sukhoi Su-35, EF-2000 Eurofighter Typhoon, Saab JAS 39 Gripen, Dassault Rafale.

Quinta generazione 2005-20XX
I caccia di "quinta generazione" costituiscono davvero un passo avanti, integrando tutte le capacità fin qui concentrate nei cacciabombardieri con in più la tecnologia stealth di cui fanno uso e che gli permette di colpire prima di essere individuati, di volare praticamente indisturbati nello spazio aereo ostile, di portare a termine la missione anche in ambiente saturo di difese antiaeree e di ottenere la superiorità aerea anche in forte inferiorità numerica.
L'F-22 e l'F-35 JSF sono dei veri capolavori di tecnologia aerospaziale e rappresentanti di questa tecnologia.
l'F-22A è stato contrapposto in varie esercitazioni aeree (esempio le esercitazioni Red Flag) ai migliori caccia di 4ª generazione tuttora in servizio nell'USAF come l'F-15C/E, F-16C, F/A-18A+/C. In tutte queste esercitazioni, in cui veniva schierato in schiacciante inferiorità numerica e con regole di combattimento sfavorevoli (i nemici "eliminati" potevano rientrare in combattimento), in più di un'occasione, i piloti dei caccia avversari hanno subito la frustrazione di entrare nel raggio visivo degli F-22 (che, quindi, il pilota vedeva concretamente), ma di non riuscire ad ottenere un aggancio con nessun genere di arma (radar o IR) sul caccia di 5ª generazione che, sfruttando la maggiore manovrabilità, in breve eliminava l'avversario anche nell'arena a corto raggio.
ra i modelli più rappresentativi si possono citare: Lockheed Martin F-22 Raptor, Lockheed Martin F-35, Mikoyan-Gurevich MFI, Sukhoi Su-47, Sukhoi PAK FA, Chengdu J-20.

Approfondimenti: Portale sugli aerei da guerra

La teoria delle stringhe
La teoria delle stringhe
La teoria delle stringhe suggerisce che c'è una scala minima attraverso la quale noi possiamo guardare il mondo: noi possiamo giungere a quella dimensione, non ad una inferiore. La Teoria delle stringhe asserisce che i blocchi di struttura fondamentali della natura non sono come punti, ma come stringhe: hanno un'estensione, in altre parole hanno una lunghezza. E quella lunghezza stabilisce la scala minima con cui possiamo considerare il mondo.
Le stringhe possono oscillare in un infinito numero di modi differenti. Questa è una idea naturale in musica. Noi non pensiamo che ogni singolo suono in un brano musicale sia prodotto da un diverso strumento; sappiamo che una ricca e diversificata gamma di suoni può essere prodotta anche soltanto da un singolo violino. La Teoria delle stringhe è basata sulla stessa idea. Le differenti particelle e forze sono proprio le fondamentali stringhe che oscillano in una moltitudine di differenti modi.
La Matematica che si trova alle spalle della Teoria delle stringhe è lunga e complicata, ma è stata definita in dettaglio. Qualcuno ha, però, mai visto queste cosiddette stringhe? La risposta onesta è “no”. Le recenti stime sulla dimensione di queste stringhe parlano di 10 elevato alla – 34 m, lontano dalla grandezza minima che possiamo osservare oggi, anche al CERN. La Teoria delle stringhe è, d'altra parte, l'unica via finora conosciuta per combinare gravità e Meccanica quantistica e la sua eleganza matematica è per molti scienziati una ragione sufficiente per continuare a indagarla.
La Teoria delle stringhe rappresenta un modello preciso dello spazio-tempo: una delle sue più sorprendenti e significative ipotesi è che lo spazio-tempo non sia quadridimensionale ma a dieci dimensioni. E' solo nelle dieci dimensioni dello spazio-tempo che la Teoria delle stringhe funziona. Ma allora dove sono queste sei ulteriori dimensioni? L'idea di dimensioni nascoste fu effettivamente avanzata molti anni prima della formulazione della Teoria delle stringhe dal tedesco Theodor Kaluza e dallo svedese Oskar Klein.
Avendo descritto brevemente dopo Einstein il ripiegarsi dello spazio nella relatività generale, Kaluza e Klein considerarono cosa sarebbe successo se una dimensione spaziale fosse stata ripiegata e ricongiunta a se stessa formando un cerchio. Le dimensioni di questo cerchio avrebbero potuto essere molto piccole, persino così piccole da non poter essere osservate. Avrebbero potuto essere nascoste alla vista. Kaluza e Klein mostrarono che, a dispetto di ciò, queste dimensioni potevano ancora avere un effetto sul mondo come lo percepiamo.
L'elettromagnetismo diventa allora una conseguenza del cerchio nascosto con il moto in una dimensione nascosta che sia carica elettricamente. Dimensioni nascoste sono possibili e infatti possono modificare forze in dimensioni a noi percepibili.

Subprime
Subprime
I Subprime sono dei prestiti concessi a tassi elevati a persone che non possono accedere al normale canale finanziario o bancario in quanto hanno avuto dei precedenti negativi con le istituzioni bancarie o finanziarie.
In pratica chi accede ai prestiti o mutui subprime è una persona che presenta elevati rischi per chi eroga il prestito e a fronte dell’erogazione del mutuo o del prestito questo soggetto pagherà un tasso di interesse più elevato rispetto al mercato normale. Questo premio è dovuto essenzialmente in quanto questa persona viene identificata come un elemento a forte rischio di solvibilità e quindi potenziale insolvente.
Negli Stati Uniti, in particolare, i mutui subprime sono quei prestiti il cui importo coincide quasi completamente con il valore dell’immobile e vengono concessi a clienti con un basso reddito e un passato “creditizio” non regolare. Negli ultimi anni la quota di tali mutui è salita dal 5 per cento del totale nel 2001 e al 14 per cento nel 2006; per i due terzi si tratta di mutui a tasso variabile. E sta proprio nella variabilità dei tassi e nella larga diffusione di tale tipologia di mutui la miccia che ha innescato la crisi. 
Quando i prezzi degli immobili iniziò a scendere chiunque avesse un titolo subprime ha iniziato a venderlo. Il loro prezzo è sceso, e ha innescato una spirale opposta alla precendente. Ancora: chi ha perso dei soldi vendendo il proprio subprime di corsa a prezzo stracciato, per rifarsi ha venduto ulteriori azioni. Il clima di incertezza e di ignoto ha portato alla vendita di altri titoli. I prezzi sono crollati.
Per evitare un crack di dimensioni catastrofiche alcuni titoli subprime, in America, sono stati congelati dopo qualche giorno - significa che chi li possiede non li può vendere o comprare: blocco forzato delle contrattazioni. Ma non è bastato. Il colpo di grazia l'ha dato la notizia che una grande compagnia europea come la Bnp Paribas è stata costretta, ella stessa, a congelare tre gestioni.
La Bce è intervenuta con una massiccia iniezione di denaro, e il Sec (l'organo di vigilanza della Borsa Americana) ha annunciato forti controlli. Ma intanto tutte le borse del mondo hanno perso almeno il 2%.
Derivati
Derivati
Come dice il nome, si tratta di prodotti finanziari il cui valore "deriva" dall’andamento del valore di un altro bene (azioni, obbligazioni, valute ecc.) oppure dal verificarsi di un preciso evento. In altre parole è una sorta di "scommessa" su un avvenimento futuro: ad esempio, le quotazioni di quel titolo saliranno o quell'ente locale non sarà in grado di pagare il suo debito.
Il problema più complesso dei derivati è, da sempre, quello della determinazione del loro valore o, meglio, della  stima del loro valore. Questo valore è collegato sia al sottostante che al pay-off e per calcolarlo (o stimarlo) bisogna simulare i possibili scenari futuri.
Il valore del derivato è dunque la media dei valori possibili del pay-off (guadagno/perdita) ma ponderati in base alle probabilità di ciascuno scenario (avranno maggiore peso gli scenari più probabili). Da questo va scontato il valore finanziario del tempo (cioè la distanza tra il momento della valutazione e quello dell'accadimento). 
Per aver determinato una prima formula di calcolo del prezzo dei derivati, venne attribuito il premio Nobel per l'economia a Merton e Scholes nel 1997.
La Curva di Laffer o della crescita felice
La Curva di Laffer o della crescita felice
La storia narra che il modello fu scarabocchiato su un tovagliolo dall’economista Arthur Laffer nel 1980 per illustrare a Ronald Reagan, ancora in campagna elettorale, quali fossero i benefici di una riduzione delle imposte dirette, visto che, con l’amministrazione Carter, le aliquote marginali statunitensi erano paragonabili a quelle europee odierne, e gli USA si trovavano in una situazione di crisi economica veramente preoccupante. Il neo presidente prese seriamente i suggerimenti di Laffer tanto che, dopo aver puntato la sua campagna elettorale all’insegna di un ritorno a politiche economiche più liberiste ed a una minore intrusione da parte dello Stato nella vita dei cittadini, operò un drastico taglio di imposte tanto che nei primi tempi si vide un crollo del gettito e un’impennata del debito pubblico. Tuttavia in seguito, improvvisamente, le entrate ricominciarono a crescere in maniera sostenuta, l’economia riprese un sentiero virtuoso di crescita reale creando le basi per il fortissimo sviluppo che gli Stati Uniti videro tra gli anni ’80 e gli anni ’90 del secolo scorso. Benché, ad onor del vero, il deficit pubblico americano crebbe a dismisura viste le ingenti spese militari stanziate dall’amministrazione Reagan. Tuttavia, ciò non intacca minimamente la teoria, visto che, in effetti, le entrate fiscali aumentarono sensibilmente in quegli anni e fu solo l’aumento spropositato della spesa pubblica che spinse il debito sovrano verso livelli più alti.
Il modello si basa sulle serie storiche e sulla teoria generale keynesiana, dove il debito pubblico è pari alla differenza fra gettito fiscale e spesa pubblica, ed il gettito fiscale è dato dal prodotto fra l’aliquota media ed il PIL nazionale. Laffer, stanti queste ipotesi, sostiene che esista un’aliquota massima oltre la quale i cittadini sarebbero disincentivati sia a produrre ricchezza, perché non più remunerativa, sia a spendere, visto che il potere d’acquisto viene eroso dalla stretta fiscale. La conseguenza è un calo del PIL e, di seguito del gettito, obbligando, per il mantenimento della spesa corrente dello Stato, ad un livello maggiore di indebitamento e ad un ulteriore inasprimento fiscale (con la creazione di un circolo vizioso di tasse-debito-tasse).
Per quanto non direttamente riconducibile ad un’osservazione empirica - il che, come si dirà appresso, è poi è il vero tallone d’Achille dell’intero teorema - la “verità scientifica” accreditata dalla “curva di Laffer” poggia su principi economici elementari: vale la legge della domanda e dell’offerta e vale il principio del costo opportunità. In altre parole, esiste un punto oltre il quale la pressione fiscale non rende più conveniente una certa impresa economica a meno di incentivare l’imprenditore a riorientare l’investimento.
Il premio Nobel Joseph Stiglitz definisce, con tono dispregiativo, “scarabocchiata su un tovagliolo”.

curva

Teoria economica di Keynes
Teoria economica di Keynes
Dopo la crisi del 1929 Keynes elaborò la teoria della spesa pubblica secondo la quale il PIL cresce maggiormente tramite la spesa pubblica rispetto a quanto non farebbe con un qualsiasi altro incentivo (per esempio un calo delle tasse) e tale crescita è tanto maggiore quanto più il bilancio pubblico è in pareggio.
La teoria generale di Keynes fu l'inizio di un nuovo approccio teorico all'analisi dei fenomeni economici e alla politica economica. Nella teoria di Keynes si ipotizza la presenza di un equilibrio di sottoccupazione in cui il reddito è interamente speso e investito. 
La politica keynesiana richiedeva pertanto un intervento pubblico sulla domanda per uscire dall'empasse della sottoccupazione. La spesa garantiva anche "effetti moltiplicativi" tramite il famoso meccanismo del moltiplicatore keynesiano della spesa pubblica secondo cui ogni intervento generava benefici più che proporzionali alla spesa.
In periodi di recessione i governi devono intervenire nell'economia facendo investimenti pubblici (strade, infrastrutture ecc), diminuendo gli interessi, al fine di rianimare il ciclo economico. Nei periodi di alta congiuntura i governi possono diminuire i propri investimenti diretti poiché l' economia riesce a produrre sufficiente ricchezza e lavoro.

Caloria
Caloria
La caloria è l' unità di misura della quantità di calore (simbolo cal) pari alla quantità di calore che occorre somministrare a 1 grammo di acqua distillata per portarne, a pressione atmosferica normale, la temperatura da 14,5 °C a 15,5 °C; detta un tempo piccola c., per distinguerla dalla grande C. (che si indicava con il simbolo Cal) pari a 1 kcal, cioè a mille calorie.
Il problema di esprimere univocamente le quantità di calore è stato definitivamente risolto imponendo l'uso del joule per tutte le forme di energia, compresa quella termica. 
Nel sistema internazionale (SI) le quantità di calore si misurano in joule e si ha 1 cal = 4, 1868 J.
Decibel e suono
Decibel e suono
L'orecchio umano percepisce la pressione sonora in maniera logaritmica, anziché lineare, quindi risulta conveniente esprimere le grandezze legate all'ampiezza del suono in un'unità di misura logaritmica: il decibel.
Il decibel è l'unità di misura convenzionale con la quale in acustica si indica il livello di un fenomeno acustico.

Il decibel (dB) è definito come: 10 * LOG10 P / P0

dove P è la misura in Pa (Pa = pascal è l'unità di misura della sollecitazione e come caso particolare della pressione, è equivalente a un newton su metro quadrato) della pressione sonora e P0 è il livello standard di riferimento, cioè il livello minimo di udibilità stabilito in 20 micro pascal, essendo questo il più piccolo valore di pressione in grado di produrre una sensazione sonora in un orecchio normale (prescindendo per il momento dalla dipendenza di tale sensazione dalla frequenza). Il valore 0 di questa scala deve quindi essere definito con una convenzione consistente nel fissare un valore di riferimento a cui far corrispondere lo zero e a cui rapportare i valori delle grandezze in esame.
E' bene quindi sottolineare che il dB non è una unità di misura, ma un modo di esprimere una certa misura: esso è adimensionale. 
Alcuni esempi sono:

(dB)          Pressione sonora (mPa)
140 200.000.000 motore jet
130 63.245.555 martello pneumatico
120 20.000.000 veicolo ad elica
110 6.324.555 discoteca
100 2.000.000 macchinari industriali
90 632.455 veicolo pesante
80 200.000 traffico intenso
70 63.245 aspirapolvere
60 20.000 uffici
50 6.324 musica a basso volume
40 2.000 biblioteca
30 632 passi sulle foglie
20 200 abitazione di notte
10 63 "tic-tac" di un orologio
0 20 soglia dell'udibile

Curiosità: I VU-meter degli amplificatori audio e dei registratori a nastro magnetico riportano una scala in decibel dove il massimo è spesso +3 o +6 dB, e il minimo è un valore negativo che rappresenta la dinamica dell'amplificatore o del registratore: in questi casi, lo zero della scala (la grandezza di riferimento) è dato dall'ampiezza massima del segnale che può essere riprodotto senza che l'apparato introduca distorsione.
Polvere pirica o polvere nera polvere da sparo
Polvere pirica o polvere nera polvere da sparo
La polvere pirica o polvere nera è una miscela di carbone (15 per cento), nitrato di potassio o salnitro (75 per cento) e zolfo (10 per cento). Insensibile agli urti, per esplodere deve entrare in contatto con una fiamma o una fonte di calore, anche solo una piccola scintilla. Si tratta del più antico esplosivo conosciuto e impiegato dall’ uomo. 
Il salnitro si forma per dissociazione di urea in presenza di calcio (dal carbonato di calcio degli intonaci ) e trova lì anche il potassio. Poi si ossida col tempo e si arriva al KNO3. Il sale non è pericoloso o tossico (il KNO3 è usato come conservante in molti prodotti alimentari, per esempio salami e mortadelle ) Il composto è lassativo in forti dosi.
Il salnitro abbonda nelle vecchie stalle di cavalli o mucche, quando una volta le costruivano con piccole finestre.
Joule
Joule
Il joule è l'unità di misura dell'energia nel sistema internazionale.
Il joule è pari al lavoro richiesto per sollevare una massa di 102 g per un metro, opponendosi alla forza di gravità terrestre.
Un joule è anche il lavoro svolto per erogare la potenza di un watt per un secondo.
La conversione del J in Cal (calorie) è: 1J = 0,2388459 cal - 1 cal = 4,1867999409 J.
Per il calcolo dimensionale: 1J= 1N * 1m
Nell'uso pratico diciamo che 1kwh = 3,6*10^6 joule (1 kwh -chilowattora- e' una unità di misura della grandezza energia, e non di potenza)
In fisica, l'effetto Joule, anche detto effetto termico o legge di Joule, è un fenomeno per cui un conduttore attraversato da una corrente elettrica disperde energia sotto forma di calore in funzione dell'intensità della corrente elettrica che lo attraversa: nella vita quotidiana il suo effetto pratico lo troviamo nei ferro da stiro, nelle lampadine ad incandescenza e nelle stufe elettriche.
Il calore Q prodotto per effetto Joule risulta essere :
Q=R * i^2 * t
supponiamo che i(intensità della corrente) sia di 3A (3 ampere) 
R sia di O (ohm)
t sia un tempo totale di 60s
Il calore prodotto sarà si 4320J (ovvero 18086.97 cal)
Considerando che un joule corrisponde circa al lavoro fatto per sollevare un corpo di massa pari a circa un ettogrammo di un metro (nel campo gravitazionale terrestre a livello del mare), deduciamo che il calore prodotto nell'esempio corrisponde al lavoro fatto per sollevare 432 chilogrammi per un metro. Si tratta di un lavoro "non piccolo" e questo ci fa capire l'entità sempre notevole del calore prodotto dalle correnti elettriche.
Fisicamente, la potenza è una grandezza che è definita come : Lavoro/Tempo ed è misurata in J/s e si abbrevia in W (Watt)
Tassos Isaac
Tassos Isaac
Anastasios (Tassos) Isaac è stato un rifugiato greco-cipriota che partecipò ad una civile manifestazione contro l'esercito turco ed i coloni che occupavano la parte settentrionale dell'isola di Cipro con la richiesta completa del ritiro delle truppe turche..
Venne ucciso nel mese di agosto del 1996 a sprangate da una folla di Lupi Grigi.  E' considerato un eroe nazionale a Cipro ed anche in Grecia.
Un rapporto delle Nazioni Unite afferma che i manifestanti attraversarono la zona cuscinetto dell'ONU. 
Durante il confronto nella zona cuscinetto delle Nazioni Unite,  tra i motociclisti ciprioti ed i turchi dei Lupi Grigi, Isaac si è trovato intrappolato in filo spinato un folto gruppo di Lupi grigi corse verso di lui e lo attacca violentemente. 
Tre giorni dopo, nel corso della manifestazione che seguì il suo funerale, Solomos Solomou (cugino della prima vittima) venne colpito e ucciso da una serie di colpi di fucile sparati da membri dell'esercito turco mentre cercava di rimuovere una bandiera da una postazione militare.

Invasione turca di Cipro
Invasione turca di Cipro
L'invasione turca di Cipro iniziò il 20 luglio 1974 da parte della Turchia con il pretesto di un "operazione di pace" dopo il colpo di stato militare che depose il presidente cipriota.
Truppe di terra possentemente armate sbarcarono rapidamente sulla costa settentrionale cipriota, incontrando una certa resistenza da parte delle truppe greche e greco-cipriote. Ankara invocò il suo presunto diritto d'intervento, in base al Trattato di garanzia, per proteggere la comunità turco-cipriota e garantire l'indipendenza di Cipro: affermazione giustamente contestata da Atene.L'operazione, il cui nome in codice era Operazione Atilla, viene ingannevolmente chiamata nella zona turca di Cipro “Operazione di pace del 1974”.
Le forze turche dispiegarono una chiara e decisa strategia, forzando numerosi greco-ciprioti a riparare nel sud dell'isola. Tre giorni più tardi fu raggiunto un accordo di cessate il fuoco, quando l'esercito turco aveva posto sotto il proprio controllo il 3% del territorio di Cipro e cinquemila greco-ciprioti erano stati costretti a quel punto a lasciare le proprie abitazioni. Il Consiglio di Sicurezza delle Nazioni Unite poté infatti ottenere un cessate il fuoco il 22 luglio, quando i militari di Ankara avevano conquistato uno stretto corridoio tra Kyrenia e Nicosia, che però furono in grado di ampliare durante I pochi giorni seguenti, in violazione del cessate il fuoco deciso con la Risoluzione 353 delle Nazioni Unite.
Il 23 luglio 1974 la Giunta militare greca collassò, per lo più a causa proprio degli eventi di Cipro. I leader politici greci in esilio cominciarono a tornare in patria; nel mentre, un gran numero di greco-ciprioti si trovano trasformati in rifugiati nella loro stessa patria. Il governo cipriota di Nicosia stima che il loro numero sia stato di circa 200.000 unità. Molti di loro furono costretti ad abbandonare le loro case dall'esercito turco: cosa riconosciuta dalla Corte europea dei diritti dell'uomo. La politica turca di espellere un terzo della popolazione greca dell'isola dalle loro case nella zona settentrionale occupata dai suoi militari, impedendole di tornare e d'insediare al loro posto turco-ciprioti è considerata un esempio di pulizia etnica.
La linea di cessate il fuoco dal 1974 a oggi separa le due comunità dell'isola e ad essa ci si riferisce di norma con l'espressione Linea Verde.
Al termine del conflitto, I rappresentanti ciprioti e l'ONU acconsentirono al trasferimento a nord dell'isola dei 51.000 turco-ciprioti che non avevano lasciato le loro abitazioni nel sud, se a questo fosse essi avessero voluto acconsentire.
Il Consiglio di Sicurezza delle Nazioni Unite contesta la legalità dell'azione turca, in quanto a suo dire l'art. 4 del Trattato di Garanzia dava il diritto ai garanti di intraprendere azioni al solo fine di ristabilire lo status quo ante.
Il 13 febbraio, la Turchia dichiarò le aree occupate della Repubblica di Cipro uno "Stato Federale Turco", malgrado la condanna universale della comunità internazionale (vedere la Risoluzione del Consiglio di Sicurezza dell'ONU n. 367 del 1975).
Entanglement quantistico
Entanglement quantistico
L'entanglement quantistico è un fenomeno quantistico, in cui ogni stato quantico di un insieme di due o più sistemi fisici dipende dallo stato di ciascun sistema.
E’ possibile per una particella interagire con un’altra di maniera che lo stato quantico delle due formi un singolo stato "intrecciato" o "fuso" (entangled). Uno stato entangled è uno stato che non è interamente indipendente da altri stati, ma ne dipende in qualche modo. A causa di questa dipendenza, è un errore considerare ciascuno stato come isolato dagli altri: dobbiamo combinarli e trattare il risultato come un singolo stato.
Ad esempio, un raggio di luce è composto da un flusso di fotoni. La direzione del campo elettrico della luce è detta la sua direzione di polarizzazione. La direzione di polarizzazione di un fotone può formare qualsiasi angolo, ad esempio “verticale” o “orizzontale“. E’ possibile generare una coppia di fotoni entangled se, per esempio, un cristallo viene irradiato da un laser. In questo caso un singolo fotone può dividersi per diventarne due. Ciascun fotone prodotto in questa maniera avà sempre una polarizzazione ortogonale a quella dell’altro: ad esempio, se un fotone ha polarizzazione verticale allora l’altro dovrà avere polarizzazione orizzontale (questo per la conservazione del momento angolare: il momento angolare del sistema prima della divisione deve essere uguale al momento angolare del sistema dopo la divisione).
Quindi, se due persone ricevono ciascuno uno dei due fotoni entangled e ne misurano la polarizzazione, scoprono che quella del fotone ricevuto dall’ altra persona sarà ortogonale a quella del proprio. Sembrerebbe esserci un’apparente connessione fra le particelle, che prescinde dalla loro distanza.
In altre parole, la misura della proprietà è dipendente dal tipo di osservazione effettuato sull’altra particella entangled: c’è una connessione istantanea fra le particelle. 
Il segreto per analizzare sistemi di tipo entangled è non considerare più una Funzione d’Onda per una singola particella, ma una Funzione d’Onda per l’intero sistema.

Muramasa le spade maledette
Muramasa le spade maledette
Muramasa Sengu è stato un famoso fabbro artigiano giapponese, fondatore della scuola Muramasa vissuto nel periodo Muromachi (XVI secolo) in Giappone.
La scuola di fabbri situata nella provincia di Ise era famosa per lo straordinario filo delle sue lame. I più recenti lavori conosciuti della scuola risalgono al 1501; La scuola Muramasa ha continuato la sua attività fino al tardo Cinquecento. 
Le spade di Muramasa persero la loro fama presso il governo giapponese quando Tokugawa Ieyasu divenne Shogun, inaugurando lo Shogunato Tokugawa, nel 1603. Si dice che Ieyasu avesse perso molti amici e affini a causa delle spade di Muramasa e lui stesso era stato ferito gravemente da una di queste, così proibì ai suoi samurai di portare con sé le spade fatte da Muramasa. Ciò ha contribuito ancora di più alla creazione di leggende su Muramasa e ha portato alla produzione di opere teatrali giapponesi che trattavano di tali lame. A causa di questa cattiva fama attribuitele, le spade presentano la loro firma cambiata o rimossa del tutto. Tuttavia furono ancora create molte forge delle spade di Muramasa poiché i nemici dello Shogunato Tokugawa desideravano avere queste spade.
Si dice anche che, una volta estratta, una spada di Muramasa debba bagnarsi di sangue prima di essere riposta, anche giungendo al punto di costringere il proprio padrone a ferirsi o a commettere suicidio. Perciò, si pensa a queste spade come lame demoniache che generano un insaziabile sete di sangue che attanaglia coloro che le brandiscono.
Masamune e la Honjo Masamune
Masamune e la Honjo Masamune
Masamune Okazaki è  conosciuto come il più grande forgiatore di spade del Giappone. La mancanza di dati biografici certi, rende la sua esistenza parte della leggenda associata alle sue spade. Si ritiene che abbia operato nel periodo compreso fra il 1288 e il 1328. Costruiva spade, dette katana nella lingua giapponese e pugnali detti tanto, seguendo la tradizione Soshu. Si ritiene che abbia vissuto nella provincia di Sagami. In suo onore viene consegnato il Premio Masamune durante la Competizione tra Forgiatori di Spade del Giappone.
La Masamune è una "katana", nome dato in suo onore alle spade dei samurai (solo gli allievi che avevano già compiuto il 15º anno di età potevano impugnarne una propria). Le katane di Masamune sono spesso confuse con quelle di Muramasa, un altro forgiatore (erroneamente considerato suo allievo).
Le spade di Masamune sono considerata di qualità superiore e particolarmente belle, soprattutto considerando che nel periodo in cui forgiava il ferro che utilizzava era spesso impuro. Le spade firmate sono purtroppo pochissime, la maggior parte gli sono attribuite tramite il parere di esperti, ma la storia giapponese è piana di personaggi famosi che ne hanno brandita una, da Oda Nobunaga a Ieyasu Tokugawa a Hideyoshi Toyotomi (tre le più importanti figure storiche del Giappone) e ogni spada ha una storia curiosa. Su tutte spicca quella della Honjo Masamune. Considerata una delle migliori spade mai costruite ha rappresentato per lungo tempo durante l’era Tokugawa il potere dello Shogunato e veniva tramandata da uno Shogun al successivo. L’ultimo possessore conosciuto fu Iemasa Tokugawa che alla fine della seconda guerra mondiale, nel Dicembre del 1945, la consegnò insieme ad altre 14 spade alla polizia di Mejiro. La polizia le consegnò al sergente Coldy Bimore del 7° Cavalleggeri, da allora non si hanno più notizie.
Differenza tra reazione chimica e reazione nucleare
Differenza tra reazione chimica e reazione nucleare
Reazione Chimica
La reazione chimica è la trasformazione della struttura e della composizione originaria di una o più sostanze reagenti in una o più prodotti (altre sostanze). La reazione chimica consiste in una redistribuzione degli atomi della materia mediante la rottura e la formazione dei legami tra gli atomi. Non viene influenzata la natura della materia, in quanto gli atomi non sono influenzati, bensì il modo in cui essi sono aggregati in molecole. Le trasformazioni dei nuclei atomici fanno invece parte delle reazioni nucleari chimiche. La reazione può essere reversibile o irreversibile. Alcune reazioni chimiche si presentano con un effetto termico che può consistere in una emanazione di calore (reazioni esotermiche) o in un assorbimento di calore (reazioni endotermiche). In chimica le reazioni chimiche sono rappresentate dalle equazioni chimiche nella quale i reagenti sono posti nel membro di sinistra dell'equazione e i prodotti al membro di destra, separati tra loro dal simbolo uguale, da una freccia o da una doppia freccia a seconda dei casi. La velocità delle reazioni chimiche è l'oggetto di studio della cinetica chimica. Alcuni esempi di reazione chimica sono la combustione, la corrosione, la digestione, ecc.
Se decompongo i prodotti di reazione chimica ritrovo gli elementi di partenza inalterati o sotto forma di altri composti, ma sempre mantenendone l'identità chimica.
Ad esempio il sodio (Na) ed il cloro (Cl) si possono combinare dando NaCl, cloruro di sodio (sale da cucina), in una reazione chimica, ma all'interno della molecola di NaCl, il sodio rimane sodio (anche se lo stato di ossidazine è +1) ed il cloro rimane cloro (con stato di ossidazione -1). Fondendo il cloruro di sodio in appositi contenitori ed applicando corrente elettrica posso riottenere sodio metallico e cloro gassoso.
Esempio di reazione chimica: NaClO3 + CSO = NaCl + SO2 + CO
Reazione Nucleare
La reazione nucleare è un processo che si verifica quando il nucleo di un atomo di un elemento chimico si trasforma in un altro elemento. La reazione può interessare un solo nucleo atomico o due nuclei atomici diversi. Il risultato della trasformazione è la disintegrazione del nucleo atomico o la fusione dei nuclei in un nuovo nucleo atomico. Nella conversione l'atomo acquista o perde alcuni protoni, rilasciando o assorbendo una determinata quantità di energia. Per avere luogo la reazione nucleare necessita di una quantità di energia superiore all'energia di barriera. Nel processo di reazione nucleare un nucleo atomico subisce modificazioni indotte di alcune delle sue proprietà (ad es. il peso atomico o il numero di massa). Se ciò avvenisse in modo naturale, spontaneo, parleremmo di radioattività. 
Le principali reazioni nucleari sono la fissione nucleare e la fusione nucleare. Le reazioni nucleari possono presentarsi in modo naturale (radioattività naturale) oppure essere generate artificialmente bombardando i nuclei atomici con raggi alfa, raggi gamma, fotoni, nucleoni, neutroni o protoni accelerati ad elevata energia cinetica.
Esempio di reazione nucleare: (92)U(235) + (9)F(19) = (99)Es(252) + (2)He(4)

Tipi di Energia
Tipi di Energia
ENERGIA MECCANICA
L'energia meccanica può essere cinetica o potenziale. L'energia cinetica è l'energia legata al movimento degli oggetti. L'energia potenziale dipende dall'altezza che un oggetto ha rispetto al suolo. Se l'oggetto viene lasciato libero e comincia a cadere l'energia potenziale si trasforma in energia cinetica.
ENERGIA TERMICA
L’energia termica, o calore, fa aumentare la temperatura della materia. E' l'energia che fa vibrare gli atomi e le molecole della materia.
ENERGIA CHIMICA
L’energia chimica è contenuta nei combustibili.
Gli atomi sono legati fra loro mediante legami chimici: le reazioni chimiche sono delle trasformazioni che comportano la rottura di alcuni legami e la formazione nuovi; in questo modo si ha un cambiamento nella composizione della materia, e in alcuni casi la produzione di calore, che può essere utilizzato in diversi modi.
ENERGIA RADIANTE
Il sole ci da la sua energia radiante, che forma lo spettro elettromagnetico: luce, calore e raggi ultravioletti.
Tutti i tipi di onde trasportano energia!!
Le onde elettromagnetiche trasportano l'energia radiante che è un tipo particolare di energia. L'insieme delle onde elettromagnetiche costituisce lo spettro elettromagnetico. Lo spettro luminoso è una piccola porzione dell'insieme delle frequenze dello spettro elettromagnetico. Dello spettro elettromagnetico fanno parte: le onde radio, le microonde, i raggi infrarossi, la luce visibile, i raggi ultravioletti, i raggi X e i raggi gamma. Alcuni esempi sono le onde luminose, le onde radio, le microonde e anche i raggi X.
L'energia radiante si può propagare anche nel vuoto, dove la materia è assente.
Le onde elettromagnetiche, comprese le onde luminose, viaggiano attraverso il vuoto alla velocità di 300.000 km al secondo.
ENERGIA DI MASSA
L'energia di massa, ha origine dall'equivalenza tra massa ed energia, stabilita da Albert Einstein nel 1905.
E' la forma di energia sfruttata nelle centrali nucleari per fornire calore e luce
Olocausto
Olocausto
Con il termine Olocausto si intende la persecuzione e lo stermino sistematici di circa sei milioni di Ebrei, attuati con burocratica organizzazione dal regime Nazista e dai suoi collaboratori. “Olocausto” è un termine di origine greca che significa “sacrificio tramite il fuoco”. I Nazisti, che raggiunsero il potere in Germania nel gennaio del 1933, erano convinti che il popolo tedesco fosse una “razza superiore” e che gli Ebrei, ritenuti invece “inferiori”, rappresentassero un’entità estranea e un pericolo per l’omogeneità razziale della popolazione germanica.
Durante il periodo dell’Olocausto, le autorità tedesche presero di mira anche altri gruppi ritenuti di “razza inferiore”: ad esempio, i Rom (gli Zingari), i disabili e le popolazioni slave (Polacchi, Russi e altri). Alcuni gruppi vennero invece perseguitati per le loro idee politiche, per il loro credo ideologico o a causa di determinate caratteristiche comportamentali: in particolare, coloro che credevano negli ideali del Comunismo e del Socialismo, i Testimoni di Geova e gli omosessuali.
Per agevolare la “Soluzione Finale” (il genocidio o distruzione di massa degli Ebrei) i Nazisti realizzarono diversi campi di sterminio in Polonia, il paese con la più grande popolazione ebraica. I campi di sterminio furono progettati con l’obiettivo di creare un’efficiente macchina per l’omicidio di massa. Tra questi, Chelmnofu il primo campo di sterminio a essere realizzato e divenne operativo nel dicembre 1941. Qui, Ebrei e Rom venivano uccisi con il gas di scarico, all'interno di furgoni appositamente modificati. Nel 1942, i Nazisti misero in funzione i campi di sterminio di Belzec, Sobibor e Treblinka per eliminare sistematicamente gli Ebrei del Governatorato Generale (il territorio all’interno della Polonia occupata dai Tedeschi).
I Nazisti costruirono le camere a gas (cioè vani in cui i prigionieri venivano asfissiati con gas venefico) per realizzare lo sterminio in modo efficiente e per rendere il processo il più impersonale possibile per coloro che dovevano materialmente portarlo a termine. Nell’ambito del complesso dei campi di Auschwitz, il sottocampo di sterminio di Birkenau era dotato di quattro camere a gas: fino a 6000 Ebrei al giorno vi vennero assassinati durante il periodo in cui le deportazioni raggiunsero la maggiore intensità.

Il genocidio armeno
Il genocidio armeno
Il genocidio armeno è stato il primo del ’900, nonché uno dei più dimenticati: Hitler lo prendeva a canone del massacro che serbava in mente: “chi parla ancora oggi del genocidio degli armeni?”. I responsabili sono rimasti pressoché impuniti, i manuali di storia hanno esitato a raccontare ed il governo turco lo nega esplicitamente ancor’oggi.
Nel 1876 sale al sultanato ottomano Abdul Hamid II, detto anche Sultano rosso o sanguinario, e si ritrova a guidare un impero in piena decadenza economica ed in preda ad una grave crisi emorragica: non poche popolazioni a lui sottomesse, spesso appoggiate da alcune forze europee, cominciano a reclamare indipendenza.
Contemporaneamente alle guerre in Bulgaria, in Romania, Serbia ed Armenia cominciano azioni militari contro la popolazione armena ed il “Sultano sanguinario” non perde occasione di incoraggiare l’eliminazione totale di questa minoranza colta, ricca e cristiana da più di un millennio. Nel biennio 1894-96 reggimenti curdi denominati “Hamidiè”, prontamente obbedienti agli ordini sultaniali, intraprendono il piano di soluzione finale. Questo il bilancio del missionario tedesco Johannes Lepsius (1858-1926), testimone oculare: “2.493 villaggi saccheggiati e distrutti; medesima sorte per 568 chiese e 77 conventi; 646 villaggi convertiti all’Islam; 191 chierici uccisi barbaramente; 55 sacerdoti convertiti all’Islam; 328 chiese trasformate in moschee; 546.000 persone ridotte alla miseria e alla fame più totali”, oltre a 300.000 morti, 50.000 orfani e 100.000 rifugiati in Transcaucasia.
Gli armeni sono considerati il nemico interno, un vero e proprio cancro se non una metastasi, agenti russi prezzolati contro l’impero ottomano, oltre che ghiavur, nemici di religione.
Nel 1909 salgono al potere, promettendo la “Nuova Turchia”, uguaglianza e fraternità a tutti i membri dell’impero ottomano, i “Giovani Turchi” del Comitato Unione e Progresso, che ben presto però si mostrano furenti nazionalisti panturchi e proseguono i massacri sistematici, già nell’aprile del 1909 stesso.
Con l’occasione della Prima Guerra mondiale ed il contestuale abbandono del suolo turco da parte degli ispettori europei, la dirigenza del Comitato Unione e Progresso incarica di disarmare tutta la popolazione: un buon pretesto per armare i curdi, i circassi e i ceceni fornendoli delle armi requisite agli armeni. Viene anche creata una struttura centrale, l’Organizzazione Speciale, che deve coordinare l’attuazione del massacro. 250.000 soldati armeni vengono indirizzati in “battaglioni di lavoro”. Nel novembre 1914 viene ufficialmente dichiarata la Guerra Santa. Il 24 aprile 1915 l’intera intellighenzia armena viene arrestata: “cominciano ad essere chiuse scuole, chiese, organizzazioni religiose e le persecuzioni colpiscono tutti. Il governo turco cerca immediatamente di «tagliare la testa pensante» agli armeni, quindi tutti gli artisti, scrittori, giornalisti, liberi pensatori vengono perseguiti e torturati” (T. Koguc, Breve storia del genocidio armeno, Quaderni del Cide). Nella sola notte del 24 aprile muoiono 600 persone: man mano poi spariscono il clero e la classe politica armena. Molti cristiani, come il vescovo Ignazio Maloyan, affrontano il martirio con sereno eroismo. 
A macchia di leopardo, in tutto il territorio turco, la popolazione esortata alla Jihad compie violenze fisiche e psichiche, stupri, massacri, torture, mutilazioni, umiliazioni, brigantaggio. Frattanto, i 250.000 soldati armeni smobilitati scavano le fosse comuni dove, un poco alla volta, vanno a ‘riposare’. Inizia la deportazione verso i deserti aridissimi della Siria e della Mesopotamia settentrionale. Verso la fine del 1915 gran parte degli armeni ha intrapreso il cammino forzato verso il deserto siriano di Der el Zor, punto di morte certa. Convogli di 1.000 – 3.000 persone, già depurati dei maschi al di sopra dei 15 anni che vengono passati immediatamente sotto l’arma bianca di assassini preposti ad hoc, si decimano lungo il cammino, da affrontare senza acqua né cibo. I pochi che arrivano sono cosparsi di carburante e bruciati vivi. Nel 1916, abbinando tecnica e Il governo turco autorizzò “Hamid Suat (padre della batteriologia turca) a condurre esperimenti sugli armeni per vedere la reazione del corpo umano contagiato da un virus, quale, ad esempio, il tifo”
La fine della guerra, la capitolazione ottomana ed il conseguente Trattato di Sèvres del 1920 accordano l’esistenza di uno Stato armeno. Le potenze dell’Intesa accusano la Turchia di aver compiuto crimini contro l’umanità e la civiltà. I Giovani Turchi decidono allora di legalizzare il “momentaneo trasferimento”, come viene chiamata la deportazione, accampando la scusa della sicurezza nazionale messa a repentaglio dai presunti insurrezionalisti armeni. Ora tutti i beni dei “trasferiti momentaneamente” vengono incamerati dallo Stato; ora è lecito compiere violenze inaudite contro donne e bambini. La marcia verso la città di Aleppo (dove avviene lo smistamento per il deserto) è incorniciata nel quadro dell’orrore: cadaveri abbandonati e messi l’uno sopra l’altro ai bordi della strada, uomini impiccati ai pali del telegrafo e agli alberi, bambini gettati in acque profonde che diventano bersagli per i tiri di fucile e pistole. Il “momentaneo trasferimento” è scandito dalla denutrizione più totale, dalla disidratazione, dall’ibernazione, dalle epidemie, dalle vessazioni dei predoni assunti dall’esecutivo turco. Vi è una sola speranza di salvarsi: convertirsi all’Islam.
Facendo una stima complessiva delle vittime del genocidio armeno, risultano scomparse 2.000.000 di persone
Ad oggi, il genocidio non è riconosciuto dal governo turco, che investe ingenti somme di denari per prezzolare storici di corte che neghino l’evidenza dei fatti. È vigente la legge del 1927 che vieta l’ingresso degli armeni in Turchia. Il Ministero dell’istruzione organizza seminari di indottrinamenti per professori e studenti. Il “momentaneo trasferimento” è spiegato in ragione della pericolosità degli armeni, accusati di essere agenti al soldo dei russi: sicché lo Stato turco si trova nell’inaccettabile condizione di dover continuamente minimizzare il numero imponente di morti, di accampare necessità di difesa dall’armeno destabilizzante, di scindere il massacro in singoli eccidi.
Disastro di Bhopal
Disastro di Bhopal
Bhopal 1984: un’esplosione nell’impianto di pesticidi della Union Carbide (acquisita nel 2001 dalla Dow Chemical Company) causò la morte di migliaia di persone.
Un numero che è cresciuto negli anni fino ad arrivare a contare ben 25 mila morti e mezzo milione di persone che ancora ne soffrono le conseguenze.
Oggi Bhopal è considerato il più grave incidente dell’industria chimica mai verificatosi al mondo.
A Bhopal ancora oggi ( ottobre 2010) si beve acqua contaminata, il terreno dell’impianto non è mai stato bonificato e la gente continua a chiedere assistenza sanitaria.
Il disastro di Bhopal è avvenuto a causa della fuoriuscita di 40 tonnellate di isocianato di metile (MIC), dallo stabilimento della Union Carbide India Limited (UCIL), consociata della multinazionale americana Union Carbide specializzata nella produzione di pesticidi.
La nube  uccise in poco tempo 2.259 persone e avvelenò decine di migliaia di altre. Il governo del Madhya Pradesh ha confermato un totale di 3.787 morti direttamente correlate all'evento,ma stime di agenzie governative arrivano a 15.000 vittime. Una dichiarazione scritta governativa del 2006 asserisce che l'incidente ha causato danni rilevabili a 558.125 persone, delle quali circa 3.900 risultano permanentemente invalidate a livello grave.

Centrali eoliche
Centrali eoliche
L'energia eolica è l'energia ottenuta dal vento ovvero il prodotto della conversione dell'energia cinetica, ottenuta dalle correnti d'aria, in altre forme di energia (elettrica o meccanica) e viene per lo più convertita in energia elettrica tramite una centrale eolica
Una moderna turbina eolica è alta 90 metri ha tre pale, ciascuna lunga quanto un campo da calcio. Quando il vento soffia su entrambe le facce della pala, la sua particolare conformazione determina una differenza di pressione tra i due lati. Proprio come per l’ala di un aeroplano, la differenza di pressione solleva la pala, facendo girare l’albero della turbina.
Non emettono gas, scorie o rifiuti inquinanti, ma modificano l’ambiente e fanno rumore.
Se sono più di uno, richiedono grandi spazi perché non devono togliersi il vento a vicenda: per una centrale da 7-10 megawatt (sufficiente per 3 mila abitazioni) occorre circa un chilometro quadrato. Per questo i rotori vanno costruiti in zone poco abitate: per esempio, un altopiano deserto e ventoso. 
Un aerogeneratore medio (300 kilowatt) a distanza di 200 metri fa un rumore di 45 decibel (per confronto: lo stormire delle foglie nel bosco è di 20 decibel e il rumore del traffico cittadino di circa 70 decibel). Il rumore, però, cresce se le macchine sono più di una: con una decina di impianti, lo stesso livello di 45 decibel si ha a circa 500 metri. E il rumore cresce con l’aumentare del vento. La rotazione delle pale metalliche può creare infine interferenze elettromagnetiche, che disturbano le trasmissioni radiotelevisive. Ma questo si può evitare usando rotori fatti con materiali non metallici, come vetroresina. 

L'omosessualità è genetica
L'omosessualità è genetica
Oltre che da fattori culturali e dalle prime esperienze, l'omosessualità maschile sarebbe influenzata anche da fattori genetici. Lo rivela una ricerca dell'Università di Padova, pubblicata sulla rivista "Proceedings of the Royal Society London B", che spiega come i geni associati all'omosessualità maschile riescano a sopravvivere, nonostante questi uomini raramente abbiano figli a cui trasmetterli. 
Lo studio contraddice inoltre la teoria, avanzata più di dieci anni fa da alcuni ricercatori americani, dell'esistenza di un singolo gene dell'omosessualità. Secondo Andrea Camperio-Ciani e colleghi, le componenti genetiche in questione (associate al cromosoma X, che viene ereditato solo dalla madre, ma situate probabilmente anche su altri cromosomi) sono le stesse che influenzano una maggior fertilità nelle donne. 
I ricercatori hanno infatti scoperto che le donne tendono ad avere più figli se ereditano gli stessi fattori genetici - ancora non identificati - associati con l'omosessualità maschile. Questo aumento di feritilità compenserebbe con gli interessi la carenza di discendenti dei maschi omosessuali, mantenendo in circolazione i fattori genetici in questione. 
La scoperta rappresenta un'ottima spiegazione al paradosso darwiniano rappresentato dall'omosessualità: pur costituendo un vicolo cieco genetico, questa caratteristica perdura infatti generazione dopo generazione.
Il fatto che l'omosessualità, maschile e femminile, sia presente pressoché in tutte le culture e che si manifesti più frequentemente in alcune famiglie ha spinto a ipotizzare l'esistenza di una base genetica, anche se tutte le ricerche di geni le cui varianti potessero essere associate allo sviluppo dell'omosessualità hanno dato sistematicamente esito negativo. 
In uno studio condotto dal Working Group on Intragenomic Conflict del National Institute for Mathematical and Biological Synthesis (NIMBioS) – pubblicato sulla rivista “The Quarterly Review of Biology” – nel quale i ricercatori hanno focalizzato l'attenzione su alcuni marcatori epigenetici, temporaneamente presenti nel corso dello sviluppo dell'embrione e del feto. 
Mentre i geni costituiscono sistemi di istruzione per la produzione di proteine, i fattori epigenetici dicono in quali tessuti e in quale momento vanno espressi i geni. I marcatori studiati da Sergey Gavrilets e colleghi sono quelli sesso-specifici prodotti nelle prime fasi di sviluppo dell'embrione e destinati a regolare la sensibilità delle cellule alle variazioni dei livelli degli ormoni sessuali nel corso del successivo sviluppo del feto. In pratica, la presenza di questi marcatori impedisce che un feto di sesso femminile subisca una mascolinizzazione se i livelli di testosterone sono troppo alti o una femminilizzazione del maschio nel caso opposto.
Questi fattori epigenetici vengono per lo più prodotti di nuovo a ogni generazione; in qualche caso, però, alcuni possono passare da una generazione all'altra, e interferire con l'azione di quelli prodotti dall'embrione. Nel caso dei fattori epigenetici sesso-specifici, se vengono ereditati quelli caratteristici del sesso opposto, saranno influenzati ora la preferenza sessuale, ora l'identità sessuale, ora lo sviluppo dei caratteri sessuali primari, a seconda di quanti e quali fattori siano stati ereditati. 
Il modello matematico sviluppato dai Gavrilets e colleghi ha mostrato che i geni che codificano per questi marcatori epigenetici possono diffondersi facilmente nella popolazione, perché i fattori epigenetici che producono, di per sé favoriscono la fitness del genitore (ossia la mascolinità dell'uomo e la femminilità della donna), mentre in un numero relativamente ridotto di casi riescono a "intrufolarsi" nelle cellule germinali e passare alla prole.
L'uomo di Piltdown
L'uomo di Piltdown
L'uomo di Piltdown è una famosa truffa paleontologica riguardante un falso ritrovamento di resti fossili spacciati come appartenenti ad una specie di ominide sconosciuta
Nel dicembre del 1912, il curatore della sezione di geologia del Natural History Museum di Londra, Arthur Smith Woodward, annunciò la scoperta – realizzata pochi mesi prima da un collezionista e commerciante di antichità e reperti paleontologici, Charles Dawson - di un antichissimo cranio, pressoché completo, che poteva costituire il perfetto anello evolutivo mancante fra l'uomo e gli altri primati. L'Eoanthropus dawsoni, come lo aveva battezzato Woodward, mostrava una teca cranica, una mandibole e dei denti dotati da un lato di caratteristiche tipicamente umane e dall'altro di netti tratti scimmieschi.
Negli anni successivi e fino allo scoppio della prima guerra mondiale, nello stesso sito, una cava di ghiaia nei pressi della cittadina di Piltdown, nell'Essex, furono estratti svariati reperti – sia da Dawson sia da altri paleontologi, fra cui appunto Teilhard de Chardin – compresi manufatti litici che avrebbero  testimoniare le capacità tecnologiche dell'”uomo di Piltdown”. 
La scoperta fece scalpore ma, benché accettata dalla maggioranza degli scienziati del tempo, non mancò di suscitare polemiche da parte di una nutrita minoranza. Nei decenni successivi i dubbi si acuirono, dato che nessuno dei fossili dei nostri antenati che venivano via via scoperti nelle più disparate regioni del mondo mostrava qualsiasi punto di contatto con il singolare assortimento di caratteri dell'uomo di Piltdown. 
La resa dei conti arrivò solo nel 1950 quando, applicando la tecnica di datazione al radiocarbonio appena introdotta, si scoprì che la mascella dell'Eoantropus non poteva risalire a più di 50.000 anni fa, mentre sulla base di dati stratigrafici, di altri reperti rinvenuti nelle vicinanze del cranio e del suo stato di conservazione, Woodward e Dawson l'avevano datata a ben un milione di anni fa. Nel 1953, successive più accurate analisi svelarono infine che si trattava di una truffa, dato che la mascella e i canini provenivano presumibilmente da un orango e parti della teca cranica da un uomo moderno. 

Isole Senkaku (Diaoyutai)
Isole Senkaku (Diaoyutai)
Le isole Senkak conosciute in Cina come isole Diaoyutai sono isole poco più grandi di scogli e completamente disabitate, oltre che inospitali nel mar Cinese Orientale, la cui territorialità è rivendicata da giapponesi e cinesi.
La contesa è nata a causa di interessi economici: al largo delle Senkaku infatti si trovano pozzi di petrolio e di gas naturale ancora da sfruttare. La comunità internazionale ha riconosciuto l’appartenenza delle Senkaku al Giappone, ma la Cina continua a rivendicarne la proprietà, generando così nuovi attriti fra i due giganti asiatici.
n realtà l’attuale proprietario delle isole è un investitore privato giapponese, dal quale l’amministrazione di Tokyo vorrebbe comprarle per poterne sfruttare a pieno le risorse naturali. La notizia che il Giappone stia già trattando i termini dell’acquisto con il proprietario ha fatto infuriare i politici di Pechino, che dichiarano infattibile qualsiasi operazione di acquisto o vendita delle isole, in quanto appartenenti al territorio cinese.
In seguito alla sconfitta cinese nella prima guerra sino-giapponese (1894-1895) e al conseguente Trattato di Shimonoseki (aprile 1895),nel 1895 Taiwan ed altre isole vicine passarono sotto la sovranità dell'Impero giapponese. Le Senkaku furono esplorate, misurate ed incorporate nel territorio nazionale quello stesso anno. Attorno al 1900, l'imprenditore giapponese Koga Tatsushiro costruì uno stabilimento per la lavorazione del tonnetto striato, trasferendo nelle Senkoku 200 lavoratori. L'impresa fallì nel 1940 e da quel momento le isole rimasero deserte.
Con la sconfitta nipponica nella seconda guerra mondiale e l'occupazione del Giappone, Taiwan e le Senkoku diventarono parte dell'Amministrazione civile degli Stati Uniti d'America per le Isole Ryukyu, pur rimanendo formalmente sotto la sovranità giapponese. Da quel momento iniziarono le esercitazioni della United States Navy nelle Senkaku. Sconfitte nella guerra civile cinese, nel dicembre 1949 le truppe di Chiang Kai-shek fuggirono dalla Cina continentale ed occuparono Taiwan. Da questo momento, sia Pechino che Taipei reclamarono la sovranità su tutta la Cina, comprese le Senkaku. In forza dei trattati di San Francisco (1951) e di Taipei (1952), il governo giapponese formalmente rinunciò alla sovranità su Taiwan. I trattati fanno riferimento ad altre isole prossime a Taiwan ma non alle Senkaku che, pur sotto il controllo americano, continuarono a far parte della Prefettura di Okinawa.
Nel 1969, la commissione economica e sociale per l'Asia ed il Pacifico delle Nazioni Unite identificò potenziali riserve di petrolio e gas in prossimità delle isole. Nello stesso anno venne siglato il Trattato di reversione delle Okinawa tra gli Stati Uniti ed il Giappone.
Negli anni Settanta, i discendenti di Koga Tatsushiro vendettero 4 delle isole Senkaku alla famiglia Kurihara della Prefettura di Saitama. Nel 1972, secondo quanto stabilito nel 1951 dal Trattato di pace di San Francisco e dal Trattato di reversione delle Okinawa del 1969 tra USA e Giappone, le isole ritornarono sotto il controllo dell'amministrazione giapponese. Il governo giapponese assegnò la giurisdizione delle isole al comune di Ishigaki ma, per non creare turbative con Pechino, proibì lo sfruttamento, lo sviluppo e l'accesso alle isole.
In questo stesso periodo a Repubblica Popolare Cinese e la Repubblica di Cina (Taiwan), che non avevano firmato il trattato di San Francisco, contestarono con maggiore durezza i diritti di Tokyo sulle isole. I cinesi sostennero che oltre al punto di vista storico, secondo cui le Senkaku fanno parte di Taiwan, dal punto di vista geologico le isole non fanno parte delle Ryukyu, dalle quali sono separate dal profondo canale di Okinawa.
Relatività generale
Relatività generale
Nella teoria della relatività generale si analizzano i concetti di spazio e di tempo in relazione a sistemi di riferimento non inerziali, dove si ha una accelerazione, e la loro connessione con la gravitazione.
Poichè non esiste un sistema di riferimento assoluto, non è possibile distinguere chi sta accelerando rispetto a cosa. Gli effetti della gravità possono essere compensati da quelli prodotti dall'accelerazione.
La grande e geniale idea di Einstein è quella di "sostituire" la forza di gravità con la geometria dello spaziotempo.
Una massa deforma lo spazio circostante e ne determina una curvatura. La curvatura dello spaziotempo determina quindi la traiettoria delle masse che passano nelle vicinanze della deformazione dello spazio.
La Teoria della relatività generale è essa stessa una unificazione. Einstein realizzò che spazio e tempo sono soltanto differenti aspetti di un singolo oggetto che egli chiamò spazio-tempo. Corpi di enormi dimensioni, come pianeti, possono deformare e distorcere lo spazio-tempo e la gravità, di cui noi abbiamo esperienza come forza di attrazione, è infatti una conseguenza di questa deformazione.
Proprio come un peso posizionato su un tappeto elastico creerà una depressione in cui un vicino oggetto rotolerà, così un corpo di enormi dimensioni come un pianeta distorce lo spazio, attraendo gli oggetti vicini.
Le ipotesi fatte dalla Teoria della relatività generale sono assolutamente precise. Infatti la maggior parte di noi ha inconsapevolmente preso parte ad un esperimento che testa la relatività generale: se fosse falsa, i Sistemi di Rilevazione di Posizione (GPS) sbaglierebbero di circa 50 metri al giorno. Il fatto che i GPS abbiano un margine di errore di cinque metri in dieci anni mostra proprio quanto sia precisa la Teoria della relatività generale.

Nastro di Möbius
Nastro di Möbius
In matematica il nastro di Möbius è un esempio di superficie non orientabile e di superficie rigata
Una strisciolina di carta, larga qualche centimetro, incollata agli estremi, dopo averne dato un mezzo giro di torsione, è una delle figure più straordinarie e sorprendenti del mondo matematico, dalle mille imprevedibili trasformazioni e applicazioni: si chiama nastro di Möbius .
Se proviamo a percorrere con un dito la superficie dell’anello, scopriamo che ritorniamo al punto di partenza senza mai staccare il dito. Prima scoperta: l’anello di Möbius non ha due facce, una inferiore e una superiore, a differenza di un normale anello di carta, cioè di un cilindro, ha una sola superficie. Se una formica percorresse tutto l’anello, alla fine si ritroverebbe al punto di partenza, senza “salti” o “stacchi”, come accade invece su un cilindro normale.
Proviamo poi a tagliare l’anello a metà. Contrariamente a quanto ci potremmo aspettare, non avremo due nastri, ma uno solo più lungo. Tagliamo ancora a metà la striscia così ottenuta e, sorpresa, otteniamo due anelli concatenati. Otteniamo ugualmente due anelli tagliando l’anello di partenza a un terzo, invece che a metà, sempre nel senso della lunghezza, una è un nastro di  Möbius, l’altra è una striscia con una torsione di 360° .
Accenniamo soltanto a un altro oggetto topologico straordinario, strettamente collegato al nastro di Möbius, la Bottiglia di Klein. Una bottiglia che non ha un “dentro” e un “fuori”, come il nastro di Möbius ha un’unica superficie. Si costruisce unendo i due estremi di un cilindro con una torsione, oppure unendo i margini di due nastri di Möbius fra loro, ma si può realizzare fisicamente soltanto nella quarta dimensione.

RISORSE:
video 
immagine 
link
Lo Spread dei titoli di stato
Lo Spread dei titoli di stato
Lo spread, ossia il differenziale di rendimento dei  titoli di stato è il sovraprezzo che esigono gli investitori per  comprare ildebito di un paesi confrontato con quello tedesco, il cui prezzo è quello che si utilizza come base o riferimento visto che è  considerato quello più sicuro e meno propenso a soffrire colpi in  funzione di fattori congiunturali o puntuali - crescita, deficit.
in termini generali lo spread si può tradurre con  quanto denaro è necessario affinchè gli investitori abbandonino la paura e dimentichino il rischio che porta con sè entrare nel debito dei paesi  segnalati per i problemi di cui sopra. la ragione di questo rifiuto è  che se l'investitore sospetta che non rientra denaro nelle tasche dello  stato o non almeno nella quantità sufficiente, non ci saranno neanche i  fondi per pagare coloro che stanno acquistando il debito.
Attualmente esistono solo 3 agenzie di qualificazione importanti :  standard and poor's, moody's e fitch; queste società hanno l'incarico di  dare una nota a tutti i valori che si negoziano, che sia il debito  sovrano o azioni delle compagnie, in funzione della sicurezza  dell'investimento. come dire, studiano la cartella dei pagamenti degli  emissori di questi valori, le prospettive che deve affrontare e i rischi  o le minacce che pesano sulla sua testa. la nota di maggiore fiducia,  la indicano con tripla a. la valutazione delle agenzie è fondamentale  per gli investitori visto che, ad esempio, molti fondi pensione  statunitensi, che gestiscono migliaia di milioni, investono solo sulla  tripla A.  Nonostante questo c'è da dire che non sono infallibili e che  in alcuni casi, come nel caso dei mutui subprime valutarono con una  tripla a prodotti che, secondo quanto è stato  ampiamente dimostrato, non  meritavano questo voto.
I bond di un determinato paese, una volta emessi, si scambiano  liberamente sui mercati secondari del debito ad un interesse o  rendimento che varia ogni volta a seconda della domanda; è a questo  punto che si calcola lo spread della differenza tra i bond a 10 anni di  un paese a confronto con quelli tedeschi. Nonostante questo, anche se  sono mercati diversi, si alimentano vicendevolmente visto che  l'interesse che guadagnano i bond sul mercato finanziario finisce sempre  con l'essere trasferito a quello primario e per tanto, al prezzo  dell'asta che realizza il tesoro, e da qui si ricomincia.
Secondo i calcoli di bruxelles, se un paese ha uno spread di 400  punti base e non prende provvedimenti, è probabile che l'impatto dei  costi aggiuntivi per finanziare il contesto dell'economia della sua  economia genera un impatto negativo sul pil dello 0,8% annuo. Una cifra  che di questi tempi in cui un decimo è quello che differenzia la  crescita dalla recessione, può significare il bordo del precipizio.
Quando si fa riferimento allo spread BTp-Bund, senza ulteriori specifiche, ci si riferisce alla differenza di rendimento tra i titoli di Stato italiani con scadenza a 10 anni e i corrispondenti titoli tedeschi (sempre con scadenza a 10 anni). Si prende come riferimento la scadenza a 10 anni perché è considerato un lasso di tempo più attendibile per misurare con più efficacia la percezione dei mercati sul rischio sui debiti dei due Paesi (se si prendessero titoli a breve scadenza il dato potrebbe essere maggiormente viziato da volatilità e fattori speculativi).
Calcolare lo spread è molto facile: se i titoli tedeschi danno interesse del 3% e quelli italiani con lo stessa durata danno interesse del 5% lo spread è del 2%. 
I punti base significano che 1% sono 100 punti base, il 2% sono 200 punti base, lo 0,5% sono 50 punti base ecc.
Lo spread BTp-Bund è deciso dal mercato: chi vuole investire nelle obbligazioni italiane pensa di correre più rischi rispetto a un investimento in titoli tedeschi, per il peggior stato delle finanze italiane, e quindi vuole un rendimento più alto: oggi i BTP hanno raggiunto, sul mercato, un rendimento a dieci anni del 5,54 per cento circa, mentre i titoli tedeschi sono intorno al 2,71 per cento. Questi dati si riferiscono ai titoli già venduti in passato dalla Banca d’Italia e che ora vengono contrattati sul mercato dagli investitori, determinandone le fluttuazioni del rendimento. 

Il gatto di Schrödinger
Il gatto di Schrödinger
Erwin Schrödinger, un dei padri della meccanica quantistica, formulò il suo paradosso nel 1935 per mettere il luce l’apparente assurdità del principio di sovrapposizione, secondo cui un oggetto quantistico non osservato può trovarsi in più stati differenti (più precisamente in una sovrapposizione di stati differenti). 
Egli propose una situazione immaginaria in cui una scatola contiene un nucleo radioattivo, un contatore Geiger, una fiala di gas e un gatto. Il contatore Geiger è predisposto per rilasciare il gas velenoso, in grado di uccidere il gatto, se rivela una qualunque radiazione derivante da decadimento nucleare. Il sistema segue in definitiva le regole della meccanica quantistica, perché il decadimento nucleare è un processo quantistico.
Se l’apparato viene osservato dopo qualche tempo, il nucleo potrebbe essere decaduto o meno, e in definitiva il gatto può essere o meno morto. La meccanica quantistica ci dice però che, prima che l’osservazione venga fatta, il sistema è in una sovrapposizione di entrambi gli stati: il nucleo è decaduto e non decaduto, il veleno rilasciato e non rilasciato e il gatto è sia vivo sia morto.
Il paradosso di Schrödinger serve a esemplificare il fenomeno di "micro-macro entanglement", in cui la meccanica quantistica permette in linea di principio che un oggetto microscopico e uno macroscopico possano avere una relazione molto più stretta di quanto permesso dalla fisica classica.
La via più comune per evitare questo problema è fare appello al concetto di de-coerenza quantistica, per cui le interazioni multiple tra un oggetto e l’ambiente circostante distruggono la coerenza della sovrapposizione di stati e dell’entanglement. Il risultato è che l’oggetto appare obbedire alla fisica classica, anche se è in realtà soggetto alle regole quantistiche. 

La mappa non è il territorio
La mappa non è il territorio
La conoscenza umana del mondo è limitata dal sistema nervoso e dalla struttura del linguaggio.
Per Korzybski le persone non hanno un accesso diretto alla conoscenza della realtà, ma piuttosto accedono a percezioni ed a un insieme di credenze che la società umana ha confuso con la conoscenza diretta della realtà. Per questo motivo Korbyzki è arrivato alla teorizzazione della maetafora della mappa. L’uomo deve rendersi conto che la propria mappa mentalle, che ciascuno costruisce per comprendere la realtà che lo circonda, è solamente un paradigma di fenomeni ben più complessi.
Egli soleva ripetere che "La mappa non è il territorio", infatti i nostri sensi riescono a concepire la realtà solo in modo parziale perché funzioniamo in maniera tale che la nostra mente è soggetta a distorzioni, generalizzazioni e cancellazioni. Anche il linguaggio è soggetto a questi intoppi, visto che può indurre o auto indurre mappe limitate, generiche e dalle scelte molto limitate. Fin quando le persone non prenderanno coscienza di questo e finquando non faranno in modo di apliare le proprie mappe, i loro comportamenti saranno limitati e così anche le proprie scelte. Saranno dominati dai preconcetti e dagli stereotipi e luoghi comune che hanno assunto come una guida possibile.
Tutto questo che abbiamo esposto Korzybski lo aveva teorizzato nella sua opera monumentale dal titolo “Science and Sanity: An Introduction to Non-Aristotelian Systems and General Semantics” pupplicata nel corso del 1933. Da allora molti, in maniera tacita, hanno attinto a quest’opera, operando per certi versi un vero e proprio saccheggio. Da molti è stata anche criticata, ma a distanza di circa 80 anni le basi teoriche prendono ancora più vigore da una dimostrazione sperimentale.
Nel  1996 fu condotto uno studio con lo scopo di scoprire in che modo le persone giungono a una conclusione in base a informazioni limitate. 
Quanto siamo limitati nel valutare tutti i fatti? Queste erano el domande a cui lo studio voleva dare una risposta. Brenner e i suoi colleghi presentarono a un gruppo di volontari alcune ipotetiche cause civili per querela. Tutti i partecipanti ricevevano alcune informazioni di base sugli eventi che avevano portato al processo; successivamente, alcuni ascoltavano gli argomenti dell'avvocato di una delle parti in causa, altri quelle dell'avvocato dell'altra parte. Un ultimo gruppo, infine, essenzialmente una giuria simulata, ascoltava entrambe le versioni.
L'elemento essenziale dell'esperimento consisteva nel fatto che i partecipanti fossero totalmente consapevoli della situazione: sapevano benissimo di aver sentito solo una delle due parti coinvolte, oppure entrambi. Questo però non impedì a chi aveva ascoltato la versione di una sola parte di esprimere un giudizio con più sicurezza - e più parzialità - di chi aveva sentito entrambe le campane. Ovvero: saltavano alle conclusioni dopo aver ascoltato solo una versione dei fatti pur sapendo che ne esisteva un'altra.
Brenner, Koehler e Tversky scoprirono che invitando i partecipanti a prendere in considerazione l'altra versione la loro parzialità diminuiva: ma non scompariva del tutto. Lo studio dimostrò quindi che le persone non solo sono portate a saltare alle conclusioni dopo aver sentito una sola versione dei fatti, ma è assai probabile che continuino a farlo anche quando hanno a disposizione informazioni aggiuntive che suggerirebbero una differente conclusione. Ne conseguiva, osservarono un pò pessimisticamente gli scienziati, che “le persone non compensano a sufficienza le informazioni mancanti anche quando è assolutamente evidente che quelle che hanno sono incomplete”.
Ecco allora spiegato il motivo per cui spesso gli uomini appaiono limitati e parziali nelle loro mappe, non compensano a sufficienza le informazioni mancanti, ma la cosa buona, come sosteneva già Korzybski, è che quando si fanno notare questa limitazione, le mappe cominciano ad ampliarisi.
Introduzione alla Semantica Generale
Introduzione alla Semantica Generale
La semantica generale di Alfred Korzybski's , è un valido utensile per portare alla luce le trappole del linguaggio, e svelare come il linguaggio ed in particolare il linguaggio politico, religioso, pubblicitario, mediatico abbiano il potere di preindirizzare e ingabbiare le questioni in modo univoco, attraverso distorsioni e forzature semantiche. In tal senso l'esperienza umana viene filtrata e mediata dalle caratteristiche contingenti delle costruzioni linguistiche e del senso comune.
La semantica generale permette di ritornare consapevoli della distinzione tra mappa e territorio e del come l'informazione venga distorta o cancellata dalle rappresentazioni che utilizziamo. Non basta una comprensione sporadica e intellettuale di questi meccanismi, bisogna che si acquisisca un riflesso di risposta immediata alla manipolazione.
Negli anni trenta, durante la grande depressione economica americana ed alla vigilia della 2a guerra mondiale, le condizioni scientifiche (matematica non-euclidiana, relatività di Einstein in fisica, etc.) erano tali che il sistema aristotelico mostrava chiaramente i suoi limiti. Osservando i mali di quest'epoca (tra 1920 e 1933), Korzybski ha potuto formolare gli obiettivi di un sistema non-aristotelico.
Il vocabolario della semantica generale ha una grande importanza nella padronanza del sistema. Non per far parte di un' 'elite', ma perchè è sotteso nei principi di base. In effeti, come parlare degli effeti psico-somatici, per l'esempio, se continuiamo a separare nel nostro linguaggio 'corpo' e 'spirito' ? Come parlare della relatività se separiamo verbalmente 'spazio', 'tempo', 'materia' ?
La Semantica Generale si propone di andare oltre alla “scienza del significato”. La semantica studia il rapporto tra un “etichetta” e i meccanismi sociali e psicologici che l’hanno generata per darne una definizione. La teoria di Korzybski tende piuttosto di definire il rapporto tra il sistema nervoso umano e le sue reazioni agli stimoli esterni, di qualsiasi natura questi siano, e vorrebbe creare un metodo per integrare le reazioni istintuali, il pensiero e il comportamento in un insieme omogeneo e coerente.
La più nota frase “La mappa non è il territorio“ sta a significare che l’etichetta che noi applichiamo ai fenomeni, troppo spesso, viene associata a ciò che significa, mentre in realtà essa lo definisce solamente.
Studiando il “concetto” di Platone, dove per tutti la parola CANE identifica un cane comune a tutti, bisogna tenere conto che l'idea di CANE varia da persona a persona in base alle sue esperienze personali: per me un cane potrebbe essere un cane da caccia, perchè sono stati sempre i miei preferiti, mentre per altre persone potrebbero essere dei cani lupi, e mentre per me l'idea di cane è associata ad una cosa "positiva" per una persona che è stata azzannata potrebbe essere associata ad un concetto "negativo".

Limiti del sistema aristotelico
  • Tutto ciò che è, è. (Identità)
  • Niente può contemporeneamente essere e non essere. (contradizione)
  • Tutto deve, oppure essere oppure non essere. (Terzo escluso)
È ovvio l'influenza della struttura linguistica legata all'uso del verbo 'essere' nella formulazione di queste premesse.
Da queste 'leggi del pensiero' seguono:
la confusione generalizzata delle parole con le cose che rappresentano (come in "Questo è una sedia"), che chiameremo identificazione, o 'confusione dei livelli d'astrazione'.
il postulo dell'universalità della forma verbale soggieto-predicato (come "la mattita è rossa"). Questo postulato assicura la possibilità di redurre tutte le formulazioni complesse in un insieme di frasi strutturate secondo questa forma unica, esprimando le "proprietà" (predicati) di un oggetto (soggieto). Vedremo che questo postolato generalmente è falso perchè questa forma verbale non può rendere conto di relazioni assimetriche (prima, dopo, più, meno, etc.). Chiameremo questo proiezione e mostreremo che include un caso particolare di identificazione :
la possibilità di dividere verbalmente ciò che non possiamo dividere empiricamente ('corpo'/'spirito', 'spazio'/'tempo'/'materia', etc.). Parleremo di elementalismo.

Obiettivi di un sistema non-aristotelico
Le premesse della semantica generale possono così esprimersi:
  • Una carta non è il territorio che rappresenta (non-identità).
  • Una carta non copre tutto il territorio (non-totalità).
  • Una carta è auto-riflessiva (auto-riflessività del linguaggio)

La prima di queste premesse si esprime in modo negativo. Questa forma le attribuisce un grado di sicurezza che non potrà avere una forma affermativa, obbligando i suoi detrattori a fornire un contro esempio. Questo principio è raramente rimesso in causa dai 'sostenitori' del sistema aristotelico ma è raramente applicato.
La seconda premessa mette in causa la totalità delle formulazioni aristoteliche. Questa totalità si ritrova nelle formulazioni delle premesse di Aristotele e di solito è introdotta dalle frasi "o/o" non lasciando scelta ad altre possibilità. Il pericolo che si presenta è meno facilmente percepibile. Un'affermazione del tipo "una porta deve essere aperta o chiusa" non pone alcun problema fondamentale, ma "siete con noi o contro di noi" rileva come il problema non è così semplice.
La terza stabilisce la multiordinalità, la possibilità dei nostri linguaggi di utilizzare le parole per parlare delle parole stesse. Questa capacità si ritrova nelle nostre parole più importanti : "si", "no", "vero", "falso", "fatto", "realtà", "causa", "effetto", "accordo", "disaccordo", "proposizione", "numero", "relazione", "ordine", "struttura", "astrazione", "caratteristica", "amore", "odio", "dubbio", ecc.
Se tali parole possono essere utilizzate in un enunciato, esse possono ugualmente essere utilizzate in un enunciato a proposito dell'enunciato precedente, e così di seguito. Ad ogni tappa del processo il senso di questa parola può cambiare : "amare fare soffrire" (o "amare soffrire") non è ciò che intendiamo normalmente con "amare". Vediamo quindi che il livello su cui ci poniamo ha un'influenza enorme sulla valutazione che facciamo di una frase.
Secondariamente, questa comprensione ci permette di eliminare numerosi paradossi basati sulla confusione dei livelli.
Reagan il miglior presidente, Obama solo quarto
Reagan il miglior presidente, Obama solo quarto Il repubblicano Ronald Reagan e' considerato dagli americani il miglior presidente della storia statunitense. E' quanto emerge da un sondaggio Gallup del febbraio 2012 che assegna a Reagan (malgrado lo scandalo Iran-Contras) una popolarita' del 59%, seguito al 48% dall'amatissimo democratico Bill Clinton, nonostante lo scandalo Lewinsky. Barack Obama e' solo quarto al 3% preceduto da George H. W. Bush (padre) al 15%. Fanalino di coda Richard Nixon, il presidente del Watergate, con un quoziente negativo del 41%. Al penultimo posto Bush figlio al -22%. Il fattore decisivo per il buon ricordo di Reagan e Clinton e' stata l'aver governato in un buon momento per l'economia Usa, ottenendo il merito di aver raddrizzato la situazione. .
Prima Uovo o Gallina?
Prima Uovo o Gallina?
La risposta è in una proteina responsabile della formazione del guscio delle uova.
Gli scienziati sanno da tempo che la proteina ovocledidina17 (OC-17), presente solo nella parte più dura del guscio e nelle ovaie delle galline, influenza la trasformazione del carbonato di calcio in cristalli di calcite (la sostanza che rende duro il guscio stesso), ma non sono mai riusciti a chiarire il meccanismo di questa trasformazione. Per risolvere il mistero hanno chiesto aiuto a Hector (High End Computing Terascale Resource), un supercomputer installato a Edimburgo ed esperto in evoluzione delle dinamiche cellulari. Grazie a questa macchina hanno messo a punto una simulazione che mostra come la proteina si lega al carbonato di calcio per mezzo di particolari "pinze chimiche". Una volta stabilito il legame la OC-17 lavora come catalizzatore: aiuta cioè le partcelle di calcio a trasformarsi in cristalli di calcite e ad accumularsi l'una sopra l'altra. Quando il nucleo del cristallo è sufficientemente grande da poter continuare la sua crescita da solo, perde il legame con la proteina, che si ricicla legandosi ad altri cristalli e velocizzando così l'indurimento del guscio che avviene,solitamente, nel giro di una notte. 
I ricercatori hanno inoltre scoperto che in assenza della OC-17 la cristallizzazione del guscio non può avvenire.
Quindi è ipotizzabile che sia nata prima la gallina
Pannelli solari fotovoltaici e inquinamento
Pannelli solari fotovoltaici e inquinamento
L'inquinamento dei pannelli fotovoltaici dipende dalla quantità che se ne vuole utilizzare.Se ad esempio si pretendesse di produrre circa il 20% del fabbisogno elettrico italiano(più o meno il 6-7% del fabbisogno energetico totale) bisognerebbe produrre e successivamente smaltire qualcosa come 600 milioni di pannelli fotovoltaici da 1mq ciascuno, tenendo anche conto che alcuni materiali di cui sono costituiti questi pannelli sono altamente inquinanti.
I pannelli solari fotovoltaici non usano combustibile per funzionare, non producono rumore e non emettono gas serra (o gas nocivi per l'ambiente). L’energia solare è considerata il simbolo per eccellenza dell'energia pulita e dell'energia rinnovabile. L'inquinamento nel luogo di installazione è pertanto minimo dal punto di vista dell'utilizzatore. L'impatto ambientale dei pannelli solari è invece concentrato nei luoghi di produzione dei moduli fotovoltaici (in fabbrica) e al termine del loro ciclo di vita come prodotto se non è predisposto un piano di smaltimento e di riciclaggio dei pezzi.

Storia debito pubblico Italiano
Storia debito pubblico Italiano
 1965 30,02% del Pil
 1980 57,59% del Pil
 1983       69,93% del Pil (Governo Fanfani e poi Craxy)
 1984 74,40% del Pil (Governo Craxy)
 1985 80,50% del Pil (Governo Craxy)
 1986 84,50% del Pil (Governo Craxy)
 1987 88,60% del Pil (Governo Craxy, Fanfani, Goria)
 1988 90,50% del Pil (Goria, De Mita)
 1989       93,10% del Pil (Andreaotti, De Mita)
 1990 94,70% del Pil (Governo Andreotti)
 1991 98,00% del Pil (Governo Andreotti)
 1992 105,50% del Pil (Governo Andreotti e Amato)
 1993 115,60% del Pil (Governo Ciampi e Amato)
 1994 121,50% del pil (Governo Ciampi Berlusconi)
 1995 121,20% del Pil (Governo Dini)
 1996 120,60% del Pil (Governo Dini Prodi)
 1997 118,10% del Pil (Governo Prodi)
 1998 114.90% del Pil (Governi Prodi Dalema)
 1999 113,70% del Pil (Governo Dalema)
 2000 109,20% del Pil (Governo Dalema Amato)
 2001 108,70% del Pil (Governo Amato Berlusconi)
 2002 105,55% del Pil (Governo Berlusconi)
 2003 104,26% del Pil (Governo Berlusconi)
 2004 103,90% del Pil (Governo Berlusconi)
 2005 106,60% del pil (Governo Berlusconi)
 2006 106,80% del pil (Governo Berlusconi, Prodi)
 Dal 2007 in poi ha iniziato a salire
Irgun
Irgun
L'Irgun abbreviazione di Irgun Zvai Leumi, ebraico per "Organizzazione Militare Nazionale", è stato un gruppo terrorista sionista che operò nel corso del Mandato britannico sulla Palestina dal 1931 al 1948.
L'Irgun è stato classificato dalle autorità della Gran Bretagna e dalla maggior parte delle organizzazioni ebraiche come un'organizzazione terroristica, mentre altri lo considerano un movimento indipendentista, al pari dei movimenti armati palestinesi. La sua associazione politica con il Sionismo revisionista lo rese un movimento anticipatore del moderno partito/movimento israeliano di destra del Likud.
L'Irgun fu fondato nel 1931 da Avraham Tehomi, a seguito di una spaccatura largamente politica e ideologica con l'Haganah e dopo che questa aveva assunto la leadership del distretto di Gerusalemme.
L'Irgun si differenziò dall'Haganah, dissociandosi dall'ideologia socialista e dalla strategia prevalente dell'Havlagah, come pure dalla sua relativa moderazione. Nel corso della sua storia, l'Irgun sostenne un uso più deciso della forza in difesa degli Ebrei nella Palestina mandataria e della proposta della formazione di uno Stato ebraico.
Nel 1948, il gruppo fu disciolto e i suoi membri integrati nelle neo-costituite Forze Israeliane di Difesa.
L'integrazione coincise con l'affondamento, da parte dell'IDF, dell'Altalena, una nave carica di armi e militanti dell'Irgun diretta verso Haifa ed il cui sbarco fuori dal controllo del governo israeliano era stato vietato dallo stesso Ben Gurion.
Haganah
Haganah
Haganah è il nome dato a un'organizzazione paramilitare ebraica in Palestina durante il Mandato britannico dal 1920 al 1948. L'Haganah è nota per essere stato il nucleo delle moderne Forze di Difesa Israeliane, ossia le forze armate dello Stato d'Israele.
Il ruolo dell'Haganah era quello di proteggere i Kibbutz ebraici e le fattorie, prevenire i loro abitanti dagli attacchi arabi e respingere gli aggressori. Nel periodo intercorrente tra il 1920 e il 1929 l'Haganah mancava di una forte autorità centralizzata e di un accettabile coordinamento. 
In seguito ai moti arabi in Palestina del 1929, che portarono alla morte di 133 ebrei e 116 arabi e che condussero a una sorta di "pulizia etnica" di tutti gli ebrei delle città di Hebron (con circa 70 morti e 500 ebrei costretti alla fuga), il ruolo dell'Haganah cambiò bruscamente.
Nel 1936 l'Haganah mise in campo 10.000 uomini pronti alla mobilitazione, a fronte di 40.000 riservisti. Durante la Grande Rivolta Araba del 1936-1939, essa partecipò attivamente nell'opera di protezione degli interessi britannici e nel contrastare gli insorti arabi. Sebbene l'amministrazione britannica non riconoscesse ufficialmente l'Haganah, le forze di sicurezza britanniche cooperarono con essa nel formare una forza ausiliaria ebraica, la Polizia degli Insediamenti Ebraici (Jewish Settlement Police) e speciali squadroni notturni (Special Night Squads). L'esperienza guadagnata sul campo nel piegare la Grande Insurrezione fu di grandissima utilità nella guerra arabo-israeliana del 1948.
Nel 1939 per tranquillizzare gli Arabi, i Britannici restrinsero severamente l'immigrazione ebraica in Palestina. Per tutta risposta l'Haganah cominciò a organizzare l'immigrazione clandestina e a effettuare dimostrazioni contro i Britannici. Per questo l'Haganah si avvalse dell'"Organizzazione per l'Immigrazione Illegale" (Aliyah Bet), che operò attraverso sue diramazioni in Svizzera e Turchia.
Nei primi anni della II Guerra mondiale le autorità britanniche chiesero all'Haganah di cooperare ancora, a causa del timore dello sfondamento militare dell'Asse in Nord Africa. Dopo che Rommel fu sconfitto nella Seconda battaglia di El Alamein nel 1942, i Britannici fecero marcia indietro riguardo al loro totale appoggio all'Haganah. Nel 1943, dopo una lunga serie di richieste e di negoziati, l'esercito di Sua Maestà annunciò la creazione della Brigata Ebraica. Mentre agli Ebrei in Palestina era stato dato il permesso di arruolarsi nell'esercito britannico fin dal 1940, quella fu la prima volta in cui unità militari esclusivamente ebraiche operarono in guerra sotto una bandiera ebraica. La Brigata Ebraica consisteva di 5.000 soldati e fu dispiegata in Italia nel Settembre 1944. La Brigata fu radiata nel 1946.
Complessivamente più di 30.000 Ebrei in Palestina servirono nell'esercito britannico durante la guerra.
Dopo la guerra l'Haganah riprese le sue operazioni anti-britanniche in Palestina con la liberazione degli immigranti internati dal campo di Atlit, col dinamitamento delle strutture ferroviarie del paese, col sabotaggio e con le incursioni ai danni delle installazioni radar e delle postazioni della polizia britannica. Essa continuò anche a organizzare l'immigrazione illegale.
Il 29 maggio 1948, meno di due settimane dopo la creazione dello Stato d'Israele avvenuto il 15 maggio, il governo provvisorio creò le Forze di Difesa Israeliane che avrebbero sostituito l'Haganah. Decretò anche fuori legge il mantenimento di qualsiasi altra forza armata. L'Irgun sfidò la decisione e ciò portò a un breve scontro tra Haganah e Irgun. Infine l'Irgun consegnò il suo armamento e Menachem Begin trasformò la sua milizia in un partito politico, l'Herut.
Dishonorable Disclosures
Dishonorable Disclosures
Dishonorable Disclosures è un documentario del 2012 prodotto da "Special Operations OPSEC Education Fund Inc" un gruppo di ex ucciciali dei servizi segreti e delle forze speciali.
Il film pretende di dimostrare che l'amministrazione del presidente Barack Obama ha messo in pericolo la vita degli agenti tramite la diffusione di  informazioni sul raid militare degli Stati Uniti che portò all'uccione di Osama Bin Laden nel 2011.
Il film di 22 minuti afferma il presidente Obama e la sua amministrazione hanno intenzionalmente fotto trapelate informazioni sensibili su operazioni di intelligence segrete.
Secondo un rapporto del New York Times, il film cerca di ritrarre Obama "come uno spaccone che si prente il merito per i successi delle forze speciali e agenti dell'intelligence".
Nel documentario sono incluse interviste con ex funzionari dell'intelligence, che suggeriscono che la Casa Bianca abbia volutamente fatto trapelare dettagli sul raid al compound di Bin Laden, che potrebbe aiutare i terroristi identificare i Navy SEALs coinvolti, insieme a altre informazioni sensibili.
Fred Rustmann, un ufficiale in pensione della CIA, dice nel video che giorni dopo il raid bin Laden, un esponente dell'élite di Hollywood è stato invitato alla Casa Bianca per essere informato esattamente di come il raid ha avuto luogo. Rustmann afferma che l'amministrazione ha lasciato trapelare "che tipo di fonti che abbiamo avuto, che tipo di metodi che abbiamo usato tutti, al fine di fare un film per Hollywood ", riferendosi al film Zero Dark Thirty, che verrà distribuito nel mese di dicembre del 2012.
Il tenente colonnello in pensione del USMC  Bill Cowan sostiene che Obama ha divulgato le informazioni segreto a Hollywood per guadagno politico, dicendo nel video: "Quando divulghiamo informazioni sicurezza nazionale, come l'identità del organizzazione che ha ucciso Osama bin Laden, abbiamo messo tutti quegli uomini, tutte le loro famiglie, tutti intorno a loro a un certo tipo di rischio."

Idrogeno come fonte di energia
Idrogeno come fonte di energia
L’idrogeno non è una fonte di energia, bensì un mezzo per accumularla, un portatore di energia.
L’idrogeno è il più diffuso elemento nell’universo, ma sulla terra è combinato con altri elementi. L’idrogeno è presente nell’atmosfera solo in piccolissima concentrazione perché per la sua leggerezza tende a sfuggire al campo gravitazionale e a disperdersi nello spazio. È invece relativamente abbondante in forma combinata, soprattutto come acqua (H2O) e come composti organici (idrocarburi, biomasse, ecc.). Esempi sono il gas metano (CH4) composto da un atomo di carbonio (C) e quattro atomi di idrogeno e i vegetali formati da combinazioni organiche più complesse.
L’idrogeno si ricava da queste combinazioni mediante processi chimici che richiedono energia. Scientificamente si parla pertanto di una fonte energetica secondaria. Nel caso dell’idrogeno, l’energia per la sua preparazione non deve per forza derivare da fonti fossili, bensì anche dall’energia eolica, solare e idrica.
Tra i vari metodi che consentono di ricavare idrogeno dall’acqua, l’elettrolisi è l’unico di rilevanza pratica, oggi e possibilmente anche domani. L’elettrolisi, nella sua forma convenzionale, è usata da oltre 80 anni per produrre idrogeno per il mercato.
La produzione di idrogeno per elettrolisi richiede l’impiego di energia elettrica e l’energia necessaria per scomporre l’acqua nei suoi due elementi H e O, è essenzialmente quella “immagazzinata” nell’idrogeno stesso.
La produzione di grandi quantità è pertanto economica solo in quei paesi dove l’elettricità può essere generata a costi convenienti; quindi, per produrre idrogeno si deve investire energia elettrica.
Sindrome hikikomori o Ragazzi Tartaruga
Sindrome hikikomori o Ragazzi Tartaruga
Hikikomori è un termine giapponese che si riferisce a coloro che hanno scelto di ritirarsi dalla vita sociale.
Il Ministero della Salute giapponese definisce hikikomori coloro che si rifiutano di lasciare le proprie abitazioni e lì si isolano per un periodo che supera i sei mesi. Mentre il livello del fenomeno varia su una base individuale, nei casi più estremi alcune persone rimangono isolate per anni o anche decenni. 
Questa sindome colpisce principalmente gli adolescenti.
Mentre molte persone sentono la pressione del mondo esterno ma trovano il modo di gestirla, gli hikikomori reagiscono con un completo isolamento sociale.si chiudono in una stanza per periodi prolungati, a volte per anni.
L'isolamento dalla società inizia gradualmente. La persona in questione può apparire infelice, perdere i propri amici, diventare insicura e timida, e parlare di meno.
Per parlare di vero hikikomori bisogna che siano presenti alcune componenti tipiche della cultura popolare giapponese, come la passione per il mondo manga e, soprattutto, la sostituzione dei rapporti sociali diretti con quelli mediati via internet. Quest'ultimo aspetto si configura spesso come una contraddizione in termini: la persona rifiuta i rapporti personali solo fisici, mentre, con la mediazione della rete, può addirittura passare la maggior parte del suo tempo intrattenendo relazioni sociali di vario tipo (dalle chat fino ai videogiochi online).
Non siamo quindi di fronte ad un semplice caso di disturbo psichiatrico, ma ad un complesso fenomeno che su generiche radici di tipo psicopatologico costruisce un complesso comportamento culturale dai tratti caratteristici. La dipendenza, quindi, non rappresenta una causa del disturbo, ma una conseguenza. C'è da dire anche che, in alcuni casi estremi, l'hikikomori si sente incapace persino di interagire con gli utenti in rete.
Altre caratteristiche comuni riguardano lo stile di vita: gli hikikomori, vivendo nel loro mondo chiuso e disorganizzato, sono spesso molto trasandati sia nell'aspetto che nelle abitudini. Hanno un ritmo sonno veglia totalmente sballato, sono disordinati e mangiano in modo irregolare.
«Gli adolescenti di tutto il mondo entrano in crisi, sviluppano ansia e agorafobia, ma l' hikikomori è una condizione che si trova solo in Giappone», dice Henry Grubb, psicologo dell' università del Maryland negli Stati Uniti, uno dei pochi a studiare il fenomeno in Occidente. Di chi è la colpa? Secondo l' americano dei genitori, eccessivamente passivi verso i «capricci» dei ragazzi: «Se mio figlio si rinchiudesse in camera, busserei e aprirei la porta. Semplice. Ma non in Giappone, dove tutti dicono: "Dagli tempo, vedrai che gli passa"». Secondo altri, dell' elevato tenore di vita e del rapporto simbiotico che lega madri e figli: «L' odierno Giappone è così ricco che milioni di genitori sono felici di permettere ai loro bambini di restare in casa fino a un' età avanzata, pagando senza fiatare il conto delle spese che i ragazzi fanno su Internet». Ma c' è anche un' altra spiegazione. Il Giappone che si straccia le vesti guardando in tv la faccia appassita della madre dell' eremita in cucina è lo stesso che fa la fila per comprare l' ultimo modello di playstation. Qui hanno inventato il cane-robot e il tamagotchi, il cucciolo sul display che muore se il padrone non lo coccola. Al mondo virtuale è riconosciuta pari dignità con quello reale. «Così murarsi in casa - tira le somme l' esperto - diventa la malattia rivelatrice di una generazione ansiosa, resa vulnerabile dallo straordinario progresso tecnologico». Il governo ha preso al questione molto sul serio. Nel primo studio sul fenomeno viene considerato affetto da hikikomori chiunque vive completamente isolato per più di 6 mesi. In 12 mesi - tanto è durata la ricerca - i casi segnalati dai servizi psichiatrici sono stati 6.151, il 40% fra i 16 e i 25 anni d' età, il 21% fra i 25 e i 30. L' 8% è rimasto chiuso in stanza per dieci anni o più. «Ma è solo la punta dell' iceberg», avverte lo studio. Ai moderni eremiti non piace chiedere aiuto: non si considerano malati. «All' origine di questi comportamenti c' è sempre una situazione fortemente stressante», spiegano all' Istituto psichiatrico di Tokyo. Ma anche l' omologazione avrebbe una parte: «In Giappone bisogna essere tutti uguali. L' alternativa? Autoescludersi». Sparire per sopravvivere. Alcuni dei ragazzi-tartaruga riescono a rientrare nella società. La tv ha parlato di uno di loro, Tadashi: dopo quattro anni di autoreclusione, oggi lavora come fornaio. Ha paura degli sconosciuti ed è terrorizzato dal rischio che si sparga la voce che è stato malato.
Conferenza di Madrid
Conferenza di Madrid
La Conferenza di Madrid è stata ospitata dal governo della Spagna, e co-sponsorizzata da Stati Uniti e URSS. E ' stata convocata per il 30 ottobre 1991, ed ha avuto una durata di tre giorni. È stato un primo tentativo da parte della comunità internazionale di avviare un processo di pace attraverso negoziati riguardanti Israele e i palestinesi, nonché i paesi arabi compresi Siria, Libano e Giordania.
I negoziati tra Israele e la Giordania hanno portato alla fine ad un trattato di pace, firmato nel 1994.
Risoluzione ONU 3379
Risoluzione ONU 3379
Le nazioni unite adottarono la risoluzione ONU 3379 il 10 novembre 1975 con 72 voti su 35 ( con 32 astenuti).
La risoluzione 3379 "determina che il sionismo è una forma di discriminazione razziale".
La risoluzione 3379 fù revocata nel 1991 dalla risoluzione 4686 come condizione da parte di Israele per partecipare alla conferenza di Madrid
Esodo ebraico dai paesi arabi
Esodo ebraico dai paesi arabi
Con esodo ebraico dai paesi arabi ci si riferisce all'espulsione e alla partenza di massa di ebrei, in primo luogo di sefarditi e mizrahi, da paesi arabi e islamici avvenuta a partire dal tardo XIX secolo, e accelerata dopo la guerra arabo-israeliana del 1948.
Secondo le statistiche ufficiali arabe 856.000 ebrei hanno lasciato le loro case nei paesi arabi, dal 1948 fino agli inizi del 1970. Circa 600.000 si sono reinsediati in Israele.
L'Organizzazione mondiale degli ebrei dai paesi arabi (WOJAC) stima che le proprietà ebraiche nei paesi arabi sarebbero valutate oggi a più di $ 300 miliardi di dollari ed le proprietà immobiliari lasciate nelle terre arabe equivarrebbero a 100.000 chilometri quadrati (quattro volte la dimensione dello Stato di Israele).
Dei quasi 900.000 rifugiati ebrei, circa 680.000 furono accolti da Israele; gli altri andarono in europa (soprattutto in Francia) e nelle Americhe.
In Israele furono temporaneamente collocati in tendopoli, le ma'abarot in ebraico. Queste tendopoli continuarono ad esistere fino al 1963. I loro abitanti furono gradualmente e con successo integrati nella società israeliana, senza ottenere aiuto dalle organizzazioni delle Nazioni Unite per i rifugiati.
L'integrazione comportò comunque dei problemi. Molti rifugiati impiegarono del tempo per adattarsi alla nuova società e vi furono anche delle discriminazioni nei confronti dei rifugiati. Nel 1971 questi sentimenti portarono alla protesta guidata dal movimento delle Pantere Nere Israeliane.
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.