Ad aprile di questo stesso anno avevo scritto un articolo dove parlavo dell’intelligenza artificiale e di come vi fossero paure (talvolta infondate) riguardo questa nuova tecnologia.
A distanza di qualche mese, dopo che il garante per la privacy ha rimosso il blocco all’utilizzo di ChatGPT e che l’unione europea ha licenziato il testo “AI ACT”, ho deciso di tornare a parlare di Intelligenza Artificiale generativa ma da un punto di vista più “umano”.
Visto che sempre più spesso viene utilizzata l’AI per generare contenuti mi sono chiesto quanto questi contenuti siano realmente di qualità e fino a che punto siano difficili da riconoscere da quelli creati da esseri umani.
L’utilizzo che sto facendo dei verbi “generare” e “creare” in riferimento, con il primo alle intelligenze artificiali generative e con il secondo all’ingegno umano, non sono per nulla casuali. Sono, infatti, profondamente convinto che il processo di creazione sia tipico dell’essere umano e della sua consapevolezza di essere un individuo unico e pensante; il cartesiano “Cogito ergo sum” è, a mio avviso, un processo mentale solamente umano che le AI non potranno mai raggiungere.
I test
Ho deciso quindi di fare una serie di esperimenti: ho chiesto a due AI gratuite (ChatGPT 3.5 e il Chatbot di Skype) di creare tre articoli su specifici argomenti. Come base per due di essi ho deciso di utilizzare due articoli che avevo scritto io in precedenza (“Il Metaverso Evoluzione Della Realtà Virtuale E Di Internet.” e “Coding Nelle Scuole: Il Bambino Impara A Pensare”), aggiungendo per l'ultimo articolo un argomento difficile e particolare per un AI.
I risultati dell’interrogazione sono disponibili a questo LINK .
Per prima cosa ho dovuto istruire su quali argomenti volevo che venissero trattati in modo da avere dei risultati che assomigliasse a quelli che avevo creato io o che, almeno, utilizzassero gli stessi spunti e riferimenti nello svolgere il compito. La prima richiesta è stata: Scrivi un articolo dal titolo: Il Metaverso evoluzione della realtà virtuale e di internet, parlando della storia della realtà virtuale partendo dal Sensorama, passando per il powerglow della Mattel, parlando del SuperCockpit di Tom Zimmermann e Jaron Lainer, della webcam LG LPCU30. Fare riferimento alla letteratura fantascientifica della cultura Cyber Punk dei romanzi come “Neuromante” o “Aidoru” di William Gibson Utilizzare come fonti: Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994, Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995. Cita le bibliografie e le pagine delle bibliografie.
Il riferimento alla webcam LG LPCU30 era voluto in quanto, oltre ad essere stata una delle prime webcam USB, era accompagnata da una serie di software che permettevano di far interagire l’utente con lo schermo tramite piccoli giochi di realtà virtuale. Inutile dire che nessuna delle due IA l’ha specificato nell’articolo dato che solo chi ha potuto provarla è a conoscenza di questo.
Gli articoli sono abbastanza simili, semplici, concisi e si limitano ad una banale esposizione dei fatti con una conclusione altrettanto banale e scontata. Sembra quasi di leggere un tema scolastico di un ragazzino dei primi anni di liceo.
Nota importante: mentre ChatGPT si limita a citare come bibliografia solamente i libri che ho messo io come riferimento, l’Ai di Microsoft non solo cita i medesimi testi con riferimento specifico alle pagine consultate ma amplia la bibliografia con altri sei testi.
Per il secondo test ho deciso di essere più preciso ed ho chiesto esplicitamente di allargare la ricerca ad altre fonti. Ho quindi interrogato così le AI: Scrivimi un articolo sul coding nelle scuole utilizzando come spunti "le due culture" di Snow e l'articolo della professoressa Wing del 2006. Mettici delle citazioni dai libri e articoli e fai, inoltre, l'esempio di come si può utilizzare come nel film Apollo13. Utilizza anche altre fonti pertinenti e metti le note bibliografiche a piede pagina.
Anche questa volta gli articoli sono risultati simili tra di loro ed altrettanto banali con il testo si ben steso e grammaticalmente corretto ma ancora troppo lineare e semplice. Questa volta, a differenza di prima, ChatGPT ha accluso altre fonti oltre il libro di Snow e l’articolo della professoressa Wing ma, entrambi, hanno sbagliato il riferimento a come sia possibile trovare l’esempio di pensiero computazionale nel film Apollo13.
Nessuno dei due articoli, sebbene richiesto, ha messo delle citazioni tratte dal libro o dall’articolo.
L’ultimo test è stato invece volutamente pensato per verificare le conoscenze delle due Ai e l’ampiezza delle fonti a loro disposizione. Il comando impartito era: In riferimento al libro "Epigrafi romane in Transilvania" puoi farmi un'analisi sulla perdita di documenti storici a causa di incidenti come quello occorso in questo caso sul Danubio?
Questa volta i risultati comparati tra le due intelligenze sono stati completamente differenti: ChatGPT, infatti, ha esordito con: “Purtroppo, non ho informazioni specifiche sul libro Epigrafi romane in Transilvania poiché il mio addestramento ha una data di taglio alla conoscenza fino a settembre 2021, e non sono in grado di accedere a nuovi dati o libri pubblicati dopo quella data. Pertanto, non posso fornire un'analisi dettagliata su quel libro specifico.”
A questo punto è doveroso far notare al lettore che il libro (composto da 2 volumi) è stato pubblicato in solo 1000 copie nell’autunno del 2010, quindi ben dentro quello che è il periodo di addestramento dell’intelligenza artificiale.
ChatGPT, come uno studente delle scuole dell’obbligo che non ha studiato, ha provato comunque a trattare l’argomento in maniera generica.
Meglio è andata la risposta del chatbot di Skype che, non solo conosceva il testo, ma ha anche messo il riferimento bibliografico. Anche in questo caso, però, il testo dell’articolo è risultato molto semplice e banale, sebbene scorrevole nella lettura.
È possibile distinguere se un articolo è stato scritto da una AI?
Il lettore che non ha avuto modo di provare le intelligenze artificiali generative, a questo punto della lettura, si chiederà sicuramente se esiste un modo per distinguere un articolo generato da una AI da quello scritto da un essere umano.
Vi sono online alcuni tools che permettono, una volta inserito un testo, di capire quale probabilità vi sia che il testo sia stato scritto da un umano anziché un’intelligenza artificiale. Ho provato due di questi tools (https://contentatscale.ai/ e https://www.zerogpt.com/) ed anche qua i risultati sono stai divergenti.
Nel considerare il primo articolo contentscale ha verificato come scritto completamente da umani l’articolo, mentre zerogpt ha rilevato una probabilità del 58.74% che l’articolo sia stato scritto da un AI. Ho fatto la controprova utilizzando l’articolo scritto da me ed ancora, mentre il primo assicura che l’articolo sia stato scritto da umani, zerogpt il da una possibilità che sia stato scritto da intelligenza artificiale solamente del 10.82%. Risultati analoghi li ho avuti con tutti gli articoli generati dall’AI.
Ma come fanno questi software a riconoscere che un testo sia stato scritto da un AI?
Principalmente utilizzano altri modelli di intelligenze artificiali. ChatGPT, così come i suoi simili artificiali, imparano a scrivere in base a dei pattern o schemi: un po’ come gli umani creano un loro “stile” le Intelligenze artificiali creano un modo di scrivere facendo la media degli stili che hanno imparato. Così, controllando la ricorrenza di determinate parole, del modo di scrivere, come risulta la costruzione della frase e la prevedibilità, piuttosto che imprevedibilità, di una parola in un’espressione, i tools che verificano un testo, redigono la probabilità che ciò che hanno letto sia umano o artificiale.
Ma non sempre questi tools funzionano (io suggerisco di utilizzare https://www.zerogpt.com/ se si vuole provare) e quindi…
La prima cosa che consiglio è di imparare (o reimparare) a leggere. Le AI hanno imparato principalmente da ciò che hanno avuto a disposizione online ed hanno quindi uno stile conciso, semplice e veloce, con frasi corte e semplici. Chi è abitato a leggere si accorge subito se un libro, piuttosto che un racconto o un articolo, sono stati scritti da un essere umano o meno notando la complessità della scrittura: tendenzialmente, un testo scritto da un intelligenza artificiale, è davvero banale, contiene numerose ripetizioni e non si avvale dell’intero vocabolario della lingua utilizzata, specie se non si tratta dell’inglese. Per quanto possa risultare ben steso, il documento è la maggior parte delle volte troppo lineare e non sostituisce certi termini con sinonimi più consoni al contesto, realizzando un testo tutt’altro che ricco e accattivante.
Se avete una padronanza avanzata dell’italiano e/o siete lettori assidui riconoscere un testo artificiale vi risulterà facile una volta capiti i meccanismi.
Considerazioni
Le Ai sono il futuro, è inutile negarlo!
Esistono ad oggi però tanti problemi aperti, soprattutto morali.
La prima considerazione che mi viene da fare è quella di quelle aziende che si affidano a professionisti o ad altre aziende specializzate per scrivere banner pubblicitari o articoli promozionali che, convinte di pagare professionisti laureati che hanno studiato, con anni di esperienza e conoscono il loro mestiere, si ritrovano a pagare in realtà un AI spacciata per essere umano.
La seconda considerazione che mi viene è più culturale: utilizzando le AI per scrivere testi rischiamo di disimparare l’arte della creatività e disabituarci a leggere libri scritti magari in linguaggi difficili, con periodi lunghi e, quindi, a quel lavoro mentale che ha caratterizzato lo sviluppo della nostra cultura fin dalla nascita della scrittura.
La Commissione Europea, il 23 giugno del 2023 ha licenziato il AI ACT, un testo molto complesso, destinato a gestire l’utilizzo delle AI all’interno dell’Unione in base ad un sistema di valutazione dei rischi.
Tralasciando i punti che non riguardano questo argomento mi soffermerei invece su l'utilizzo dei testi generati da intelligenze artificiali: la proposta della Commissione Europea prevede che questi siano considerati sistemi di IA a rischio limitato, in quanto possono influenzare il comportamento o le scelte delle persone o creare aspettative irrealistiche. Pertanto, i fornitori e gli utenti di questi sistemi dovrebbero informare chiaramente le persone quando sono esposte a contenuti generati da IA e indicare la fonte e la natura dei contenuti. Inoltre, i fornitori e gli utenti dovrebbero garantire che i contenuti generati da IA non siano ingannevoli, discriminatori o lesivi della dignità umana.
Fermare l’AI è impossibile ed ingiusto. Utilizzare strumenti come ChatGPT per migliorare o aiutare il lavoro è doveroso. Utilizzarli al posto della creatività umana, invece, è immorale e ingannevole oltre che un insulto a più di 2000 anni di ingegno e creatività.
La soluzione è riappropriarci dei libri. Leggere, leggere e leggere ancora. Classici, moderni, contemporanei e saggi, in modo da poter imparare a distinguere un testo di qualità da uno banale e scialbo, indipendentemente da chi ne sia l'autore (Ai o Umano) e poter risalire la china di disinformazione e bassa cultura che negli ultimi 10-15 anni ha iniziato ad avanzare.
La mente umana è capace di collegare diverse discipline, citare una frase al momento giusto e a dovere, le AI non sono in grado di farlo: non vedono film, non sentono la musica, non percepiscono la poesia.
Se scrivono un testo non sanno come collegare un film, una foto, un evento ad un altro argomento che non sembra aver connessione. Se non lo avessi specificato direttamente nella richiesta, parlando di Realtà virtuale e di Metaverso le Ai non avrebbero mai collegato di loro iniziativa i romanzi di Gibson o film come “Il 13° piano” (in effetti non l’hanno fatto con quest’ultimo) pur essendo pertinenti con l’argomento.
Creare è un processo difficile, che richiede energie ed impegno, conoscenza e studio. Non si può ridurre tutto ad un freddo algoritmo o il risultato sarà una creazione scialba, banale, e piena di luoghi comuni, con un linguaggio semplice, fatto di frasi corte e povero da un punto di vista lessicale.
Come sempre non lasciamoci ingannare dalla tecnologia. Siamo noi a doverla utilizzare nel modo corretto e non abusarne per pigrizia.
Riferimenti:
https://eur-lex.europa.eu/~/?uri=CELEX:52021PC0206
https://www.~/EPRS_BRI%282021%29698792
(ultima consultazione agosto 2023)
https://www.zerogpt.com/
https://www.zerogpt.com/
https://contentatscale.ai/
https://chat.openai.com/
https://www.bing.com/?/ai
https://theunedited.com/nerdering/aiarticoli.html
https://www.dcuci.univr.it/?ent=progetto&id=1927
Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.
Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità di calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono risultati facilmente superabili, per il secondo, fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione), le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.
Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.
Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato) sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM.
Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.
Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che, se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.
Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.
1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.
BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)