In principio era Responsive Design, ora spazio al Mobile First

(martedì 16 ottobre)

Se, dati Auditel alla mano, il presagio era già nell’aria almeno sette anni fa con la “rivoluzione” del Responsive Web Design, nel 2015 Google ha reso noto che, per la prima volta, il numero di ricerche effettuate da dispositivi mobili risultava maggiore di quelle da computer fissi. 

Dal 2017 Google ha avviato l’indicizzazione Mobile-First per i risultati di ricerca.
Finora i sistemi di scansione, indicizzazione e classificazione dei siti da parte di Google erano pensati per la versione desktop del contenuto di una pagina, non considerando così le tendenze attualizzate.

Da circa due anni il traffico internet globale mobile ha superato decisamente quello desktop: moltissimi siti, soprattutto quelli che forniscono notizie/dati in tempo reale, registrano sempre più accessi da mobile, soddisfacendo in questo modo l’utente in mobilità, e, in misura sempre decrescente, da desktop.

Si è assistito in una decade al rapido passaggio attraverso due tecniche “antitetiche”: da ‘Responsive Web Design’ a ‘Mobile First Web Design’. Essere mobile first significa progettare e ottimizzare il percorso dell’utente da smartphone, prima che da desktop.

 

Il mercato online risponde a questa tendenza e prende in considerazione la realizzazione di siti web orientati ai dispositivi mobili. La tendenza ora è quella del Mobile First, cioè partire dalla progettazione su mobile per poi pensare alle risoluzioni più alte, quindi attuare un Responsive Design al contrario.
Se la primaria preoccupazione perciò era di progettare siti che fossero mobile friendly curandone il design e la User experience, ciò ha posto questioni anche per chi si occupa di digital marketing, portando in questo modo a pianificare una customer journey invertendo così il polo di partenza (ora unità mobile e non più desktop), partendo dal presupposto che la fetta più grossa dei visitatori del sito/blog/landing page arriverà da un dispositivo mobile.

Se l’imperativo rimane quello del ‘mobile friendly’ (cioè progettare e ottimizzare il percorso dell’utente da smartphone, prima che da desktop, tramite un design responsive in grado di adattarsi alla visualizzazione su dispositivi con schermi ridotti) in alcuni settori lo status quo è viceversa rimasto invariato: la misura più efficace per muoversi in questo senso è di analizzare la situazione che si sta osservando e conseguentemente adottare strategie basate sulle analisi oggettive.

Se l’approccio Mobile First si configura come una scelta strategica specifica, anche i principi cardine nel campo del web design di conseguenza subiscono dei cambiamenti: il dispositivo mobile viene prima di tutto sia per quanto riguarda la configurazione, sia per quanto riguarda l’usabilità e la performance.

Il Mobile First al posto del Desktop First dunque. Vengono prima create pagine ottimizzate per i dispositivi mobili, poi seguono successive estensioni dei siti per desktop.

Fino ad ora, web designer e programmatori si sono occupati per prima cosa della realizzazione di un sito web per il desktop, immaginando una varietà di funzioni, grafici e possibilità creative, pensate per un monitor grande e per una connessione dati veloce; soltanto in una seconda fase seguiva la pianificazione del sito web per i dispositivi mobili, considerati di conseguenza solo come un’appendice al sito principale.

L’approccio Mobile First ribalta questa visione del lavoro e stabilisce altre priorità. Nella progettazione di una strategia vengono definiti innanzitutto quelli che sono gli aspetti centrali della pagina. Ciò vale non solo per contenuti e foto, ma anche per tutte le funzioni importanti e i moduli. In questa fase della progettazione, il pensiero alla base consiste nel concentrarsi sull’essenziale.

approcciare il mobile first

L’approccio Mobile First in sintesi:

Limitato all’essenziale
La programmazione non richiede troppi sforzi
Performance massime su tutti i dispositivi mobili
Accesso veloce alle informazioni
Design adatto allo schermo dello smartphone
Non più immagini grandi e funzioni inutili
Riduzioni del codice sorgente
Pagine programmate direttamente in HTML (JavaScript non viene usato)

Fondamentale è pianificare una soluzione ottimale per questi dispositivi; solo successivamente verranno ottimizzate versioni per desktop e laptop secondo il principio del Progressive Enhancement. Spesso nella realizzazione della strategia ci si avvale delle cosiddette grid, cioè ad una riorganizzazione concettuale basata sulle griglie. Il passo successivo sarà quello della configurazione di una pagina graduabile a seconda delle dimensioni dello schermo, in modo da presentare i contenuti su tutti i dispositivi seguendo i principi del responsive web design (design responsivo).

Con l’approccio Mobile First chi progetta il sito e le sue funzionalità ha già da subito le idee chiare su quali saranno i contenuti primari e secondari del sito, quindi si adopererà per visualizzare gli elementi importanti nel migliore dei modi.

Sostanzialmente cambierà il modo in cui il più importante motore di ricerca, indicizza e attribuisce il ranking alle pagine del tuo sito. Finora la scoperta e l’ordinamento dei risultati di ricerca in serp avveniva sulla base dell’analisi delle pagine lato desktop, scansionate dal crawler di Google e anche l’attribuzione del ranking avveniva sulla base della versione desktop delle pagine del sito.
Ora invece, cambierà la scoperta e il posizionamento delle pagine, utilizzando la versione mobile delle stesse.

Questa tecnica di approccio si basa su tre parametri interdipendenti: design, contenuti e funnel di conversione che comporta la ottimizzazione di percorsi per chi è in mobilità.
Ora, per il design la progettazione del sito implica ora un’approccio mobile da adattare poi al desktop (contrariamente a prima), badando a non inficiare la velocità di caricamento del sito. Diversamente da una risoluzione desktop ricca di immagini e testi, per un sito ‘mobile first’ è necessario tener conto delle ridotte dimensioni dello schermo e conseguentemente un adattamento dei contenuti. Il funnel – “imbuto” – di conversione fa riferimento a una strategia di marketing per tracciare il percorso che porta l’utente da una leads alla generazione di una conversione.

Secondo questo approccio, non si parte, quindi, da un layout e  funzionalità concepiti per il desktop per poi adattarli al mobile; al contrario, si parte ora dal contesto dei dispositivi mobili per concentrarsi al meglio sui contenuti essenziali.

COME PREPARARSI AL MOBILE-FIRST INDEXING

In un mondo in cui gli utenti navigano sempre più proprio tramite un telefono, introdurre ufficialmente il mobile-first index significa che Google utilizzerà la versione mobile della pagina come la principale su cui effettuare la scansione, l’indicizzazione e la classificazione del contenuto. L’obiettivo di tale cambiamento è quello di permettere agli “utenti mobile” di trovare la migliore opzione disponibile in base a ciò che stanno cercando. Google continuerà ad avere un solo indice, ma nella fase di scansione darà principalmente su un’esperienza mobile.
Finora la scoperta e l’ordinamento dei risultati di ricerca in serp avveniva sulla base dell’analisi delle pagine lato desktop, crawlate per mezzo del bot desktop di Google e anche l’attribuzione del ranking avveniva sulla base della versione desktop delle pagine del sito.
Ora invece, cambierà la scoperta e il posizionamento delle pagine, utilizzando la versione mobile delle pagine.

Per tentare di ottenere buoni risultati in tal senso e fornire la migliore esperienza possibile a chi naviga sul web, webmaster e proprietari di siti web dovranno pertanto utilizzare le pagine ottimizzate per mobile, laddove presenti, come principale punto di riferimento per l’indicizzazione sul motore di ricerca. Ciò non vuol dire però che se un sito desktop è più rilevante per una determinata ricerca, lo si vedrà comunque classificato più in basso delle sue alternative mobili.

Fermo restando che oggi, quando si sviluppa il sito web, una landing page o un qualsiasi contenuto visuale, bisognerebbe tener sempre bene a mente il concetto di “mobile-first” , i siti che potrebbero maggiormente essere interessati da questa variazione nell’indexing sono quelli che utilizzano una versione separata per le loro versioni mobili. Parliamo dunque, degli “m-site” o mobile site con separate url. 

Contro possibili allarmismi, vale la pena notare che Google non sta implementando due indici di ricerca separati per desktop e mobile (come si vociferava tempo fa), ma che sta semplicemente passando dall’indicizzazione delle versioni desktop dei contenuti alle versioni mobile. Il cambiamento al momento non influisce sul ranking: ciò che cambia è il modo in cui i contenuti vengono raccolti, non come viene classificato il contenuto. I siti che non dispongono di una versione mobile continueranno ad essere indicizzati in base a quella desktop.

Google presenterà per primi nei risultati di ricerca i contenuti del sito mobile. Se i crawler non troveranno una versione mobile, sarà inserita nella SERP la versione desktop del contenuto. “Se hai solo un sito desktop, continueremo ad indicizzare il tuo sito desktop, anche se stiamo utilizzando un user agent mobile per visualizzare il tuo sito” – si afferma dal blog di Google. In sostanza, se il sito è responsive non ci dovrebbero essere grandi modifiche da programmare. Certamente Google classificherà i contenuti sulla base dei segnali di ranking e della scansione dei siti effettuata da una visualizzazione mobile. Dunque saranno privilegiati in ogni caso contenuti mobile friendly, come avviene da almeno un anno, rispetto a siti desktop che rendono difficile, in termini di User Experience, la navigazione.

Il Mobile First Index avrà rilevanza sul posizionamento dei contenuti e su tanti aspetti del Web Design e della SEO.

 

 

 

 

 

 

 

Per ottimizzare un sito per il Mobile si hanno 3 opzioni:

  1. responsive website (stesso codice, stesso url, set css che adatta il rendering della pagina alla risoluzione dello schermo);
  2. dynamic serving (stesse url, più template html&css che si adattano alla richiesta del device). Questa potrebbe essere una soluzione ideale nello switch al mobile-first indexing in quanto comporta una riduzione del peso di css e script che lato mobile è inutile avere;
  3. sito separato (url differenti, contenuti differenti, link esterni differenti).

Un sito responsive o che implementa il dynamic serving, non comporta particolari problemi. 

Se invece il sito usa un m.site per presentare i contenuti, gli unici implementazione necessaria  per  far comprendere a Google che si tratta dello stesso sito (seppur tecnicamente sono due, facendo perciò pensare a due indici distinti), sono le annotazioni nel codice che devono permettere di segnalare nella pagina desktop la versione mobile, inserendo:

<link rel=”alternate” media=”only screen and (max-width: 640px)”
 href=”http://m.example.com/page-1″>

e, al tempo stesso, di segnalare, nella rispettiva pagina mobile, il legame con quella desktop, mediante il rel “canonical”.

<link rel=”canonical” href=”http://www.example.com/page-1″>

Occhio al fatto che le annotazioni vanno inserite solo nell’html della pagina o nella sitemap.

Questa è “la base” delle implementazioni che un sito con versione separata per il mobile dovrebbe rispettare.

Ottimizzare pagine HTML

(sabato 6 ottobre)

Tornare agli antipodi …

Ecco così può suonare il dover ritornare a lavorare su strutture apparentemente sorpassate per l’evolversi della tecnologia applicata, e l’ambito del web e dello sviluppo di siti è un esempio lampante.

Così si può trovare un senso di imbarazzo quando un cliente titolare di un sito web ci chiede di ottimizzare lato SEO un progetto in HTML, che cioè non poggia su una struttura CMS che sia WordPress, Joomla, Prestashop, Magento o altri ! …

Di fronte a questa richiesta il SEO più “vocato” potrebbe avere un momento di “fremito”, di smarrimento, un ‘… mmaaa …’, abituato o per meglio dire oramai orientato a fare una attività basata sui CMS (e i suoi strumenti): la richiesta potrebbe far … storcere un po’ il naso ….

All’occorrenza è bene sedersi, tirare un respiro … Orbene, anche il sito descritto con un CMS poggia sul codice HTML per cui no problem ! Per quanto ben strutturato, utilizzare caratteri vistosi o effetti grafici ‘pomposi’ accattivanti alla base di un sito web ci sta sempre il codice sorgente HTML: Google e gli altri motori di ricerca “leggono” questo codice per determinare dove devono apparire le pagine web per determinate query di ricerca.

Aperta la pagina del codice sorgente della pagina web, è possibile evidenziare alcune parti (“tag”) che, se ben curate, in ambito seo possono fare la differenza anche in questa modalità di approccio allo sviluppo.

Per una corretta analisi di un qualsiasi listato di codice, possiamo anzitutto individuare i due segmenti principali che lo costituiscono: la sezione <head> … </head>, dove includere alcune informazioni sul codice stesso, la definizione di formattazioni o effetti particolari, e la sezione <body> …. </body>, dove si ritrova il codice ‘nudo e crudo’.

Quando analizziamo e ‘confezioniamo’ debitamente gli elementi di una pagina web ci occupiamo di ‘SEO on-Page’.

Elementi importanti:

  • Tag <title>: il tag title assume una importanza basilare in una attività/analisi SEO (precisamente “SEO o-page). Si tratta della porzione di codice che, definita all’interno di un listato HTML, permette alla pagina web di poter essere presa in considerazione da un motore di ricerca e quindi posizionarsi in SERP.

    

 

Alcune cose importanti da ricordare per quello che riguarda il tuo tag title:

  • Assicurarsi di avere un solo tag title per ogni pagina web.
  • Assicurarsi che ogni pagina web sul sito abbia un tag title.
  • Assicurarsi che ogni tag title sul tuo sito web sia unico. Non cioé tag title duplicati.

 

  • Meta description: Appena al disotto del tag <title> trova posto un altro elemento i quale contiene una breve descrizione di quello che l’utente troverà all’interno e se troverà riposta al suo ‘intento di ricerca’. Quindi, è buona norma controllare e assicurarsi che sia su tutte le pagine web. Più importante, assicurarsi che non sia uguale su più pagine. La duplicazione di un meta tag description non è di per sé un errore grave (Google infatti non utilizza questo tag a scopo di ranking), ma è un grosso errore di marketing.

 

Evitare di sorvolare sulla meta description è consigliabile, poiché viene letta dagli utenti dei motori di ricerca: una buona frase può contribuire ad attirare più visitatori e aumentare la click-through rate

 

  • Intestazioni <H1>,<H2>, …, <H6>: Utilizzato per identificare il ‘titolo’ dell’articolo o di sue porzioni, questo marcatore H<n> risulta importante in chiave seo, dove ‘H1’ assume importanza strategica.

Non bisogna avere più di un tag H1 in ogni pagina web. Non si dovrebbe inoltre cercare di ottimizzare troppo le intestazioni H1, cioè non cercare di aumentare il SEO inserendo forzatamente la parola chiave nel titolo H1.

 

  • Tag di enfatizzazione: è sempre ‘strategico’ ricorrere all’utilizzo in modo parsimonioso di orpelli grafici (grassetto, corsivo, ecc.) per attirare l’attenzione dello spider: non eccedere nel loro utilizzo, sia perché ne ridurrebbe la rilevanza SEO, sia perché condizionerebbe la lettura dell’utente.

 

  • Alt text: Si tratta di un marcatore non scrupolosamente – e a torto – osservato: gli alt tag vuoti nelle immagini sono errori SEO. Il loro compito è proprio quello di indicare ai motori di ricerca cosa le immagini rappresentano ed è dunque buona norma non trascurare questo elemento perché “non importante”.

Rivestono una importanza qualora si abbia un sito e-commerce.

 

  • Anchor text: vale a dire il testo a corredo di u link inserito nel nostro codice e a cui Google dà importanza anzitutto per ‘riconoscere’ e comprendere la pagina di destinazione (possiamo anche inserire una keyword pertinente per “rafforzare”).

 

  • Google Analytics: Entrando più specificamente in un’ottica SEO, buona norma è incorporare nel nostro progetto un tool di analisi con Google Analytics, accertando che sia presente in ogni pagina web (in caso contrario, non si ha una effettiva analisi del traffico sul sito). Per Google Analytics, basta accertarsi della presenza di una riga di codice contrassegnata dal prefisso “UA” seguito da una stringa di 7 cifre.

L’avere la consapevolezza che questa linea sia presente su tutte le pagine del nostro sito non sempre è facile, soprattutto quando si gestiscono progetti di grosse dimensioni, con un certo numero di pagine. In questo caso può tornare utile avvalersi di un file sitemap (estensione .xml), un file di testo che contiene tutti gli indirizzi url del mio sito il quale può essere utile in particolare per tracciare quelli che potrebbero necessitare di maggiore attenzione

 

 

 

 

 

Un altro elemento che va assumendo importanza è la definizione dell’url della pagina web, strutturata in maniera tale che permetta di identificare il contenuto della pagina e preferibilmente composta da non più di 5 parole, raccogliendo nella parte più a sinistra eventuali parole chiave alleggerendo così il “cammino” del crawler.

Assume rilevanza anche l’ottimizzazione delle immagini che devono essere facilmente individuabili nel nome (vedi uso tag ‘alt’).

 

Altro fattore di miglioria in termini di ottimizzazione di una pagina, di qualunque ‘tipo’ essa sia, è data dalla velocità di caricamento della stessa, parte dell’ottimizzazione SEO di una pagina.

 

“Arte” di una pagina web è di saper ottenere dei backlink per cui assume importanza l’attività “lato seo” di link building cui è correlato il concetto di “link juice” ossia la capacità da parte del sito di ottenere un link da un altro sito web. Il legame che si viene a creare è visto dai motori di ricerca come un’approvazione, quindi un  fattore preso in considerazione dai motori di ricerca. “Link Juice” è un termine per definire il potere che il link fornisce al tuo sito web o pagina web in questione.

“Nofollow” è un attributo che annulla questa proprietà di link juice per il sito web considerato. Anche se una persona può comunque cliccare sul link, il succo del collegamento non viene passato.

Dal momento che alcuni esperti SEO ritengono che Google in realtà consideri in qualche modo anche i link col nofollow, se si vuole essere certi  del valore di un link, occorre accertarsi che non abbia questo attributo.

 

Image update algorithm

(martedì 2 ottobre)

Dopo lo scossone di inizio agosto che aveva messo in subbuglio gli operatori di settore facendo pensare a dover riscrivere le procedure operative da adottare causato dall’uscita di un repentino aggiornamento algoritmico, circoscritto inizialmente a determinate categorie – i siti meno EAT -,  ma che effettivamente ha sortito i suoi “effetti indesiderati” nella  cerchia dei cosiddetti siti YMYL (Your Money Your Life) e gli e-commerce disattendendone dunque le prerogative, ecco con fine settembre Big-G sfornarne un altro mediante il quale cercare di porre rimedio a quanto venutosi a determinare con l’update precedente, operando una sorta di riequilibrio nelle SERP (da qui il nome di Medical Update) delle varie categorie: il 27 settembre ecco arrivare l’Image Google Update.

 

 

 

Scostandosi dalla considerevole media (attendibile, perché fornita da fonti ufficiali) di modifiche annue al suo algoritmo, con gli accadimenti di questi ultimi due mesi si è andati oltre il muro delle 2000 modifiche.

All’alba del ventesimo compleanno del motore di ricerca per autonomasia, Google sfodera un aggiornamento incentrato sulla ricerca delle immagini, al fine di affinarne la qualità. Fattori discriminanti per il nuovo algoritmo saranno il posizionamento dell’immagine sulla pagina, l’autorevolezza e l’attendibilità dei contenuti connessi. Il nuovo algoritmo sceglierà immagini di qualità dalle pagine maggiormente autorevoli. Se, a sentire le communities dedicate, la rilevanza di problemi è stata di portata inferiore rispetto al precedente, con Google Medic (alias Google Image), che va a colpire un numero ottimale di siti, gli effetti sono ora distribuiti più equamente fra i vari settori, proprio perché si va di fatto a colpire un elemento comune a qualsiasi progetto web.

Secondo Google, le immagini che si presentano all’inizio dell’articolo / pagina e quelle che si trovano nel mezzo riceveranno la priorità nel risultato della ricerca di immagini. Ad esempio, per un negozio online che vende scarpe, avere un’immagine all’inizio di una pagina di prodotto dedicata a un paio di scarpe ottiene più priorità delle immagini in una pagina di categoria che mostra una gamma di stili di scarpe.

Posto che nelle maglie di una qualsiasi ricerca che facciamo su un motore di ricerca finiscono anche le immagini, è dunque inattendibile che immagini e ricerche tradizionali corrano su due binari separati.

Con l’algoritmo di ricerca di immagini il posizionamento di un’immagine avrà molta importanza nella definizione della relativa SERP e quindi delle priorità.

Se per contro l’update dipendesse solo dalle immagini, basterebbe seguire le linee guida indicate da Google:

  • posizionamento delle immagini nella parte superiore della pagina (se un e-commerce ha più immagini per lo stesso prodotto, l’immagine posta in alto sarà più visibile sui motori di ricerca);
  • utilizzare gli attributi ALT previsti a supporto delle immagini, in maniera che ne sia identificabile in qualsiasi caso il contenuto. Accertarsi che ci sia un rapporto semantico tra la pagina e l’immagine inserita al suo interno;
  • evitare di utilizzare immagini duplicate soprattutto per preservare un posizionamento già autorevole.

Operativamente, scansione delle immagini e della pagina web vengono eseguite simultaneamente, creando un indice di ricerca sulle prime. A questo punto entra in gioco l’algoritmo di ricerca che disattenderà le immagini contenenti spam eseguendone il downgrade mentre valorizzerà quelle più pertinenti e inserite in un contesto.

 

 

Aggiornamento algoritmo di Google di agosto: …stiamo sereni

(lunedì 10 settembre)
Prime indiscrezioni del ‘post-Google Update Algorithm del 1 agosto‘: appena se ne è sentita voce, la voce di un aggiornamento dell’algoritmo di Google alla vigilia della “serrata”delle saracinesche per ‘CHIUSURA ESTIVA’ era parso come uno spauracchio per gli addetti del settore i quali temevano in un “anatema” contro i risultati raggiunti con il proprio operato.
Di seguito una testimonianza di uno dei migliori SEO Specialist che al contrario dimostra, a distanza di un mese dal “refresh” di Google, come gli effetti scaturiti non siamo poi affatto allarmanti come si credeva, ad eccezione forse di quei settori (leggi settore medico e benessere) che già allora erano stati indicati tra gli altri per un riposizionamento attendibile.

 

Google Update 1 Agosto 2018

Piattaforme blogging: ecco Ghost

(sabato 25 agosto)

Attualmente esiste un cospicuo numero di piattaforme dedicate al blogging (WordPress, Tumblr, Blogger, Medium, Svbtle, LiveJournal, Powerpad, Postach.io, Pen.io, Ghost) sul mercato, destinato ad avere ulteriori sviluppi. Fra di essi, la piattaforma CMS più popolare nel settore è indiscutibilmente WordPress.

Verosimilmente, l’aspirazione di chi si avvicina a questo mondo è di poter utilizzare il miglior strumento disponibile. Da questo punto di vista, la lotta è fra WordPress e Ghost.

Nel corso degli anni, WP ha fatto passi da gigante in termini di     miglioramento dell’usabilità della piattaforma. Se primeggia nella creazione e gestione di blog, questo CMS ha assunto via via importanza anche nel settore della creazione di siti web, e-commerce e svariate soluzioni on line.
Ghost nasce come costola di WordPress e proprio la genesi lo pone come suo diretto concorrente.
Quali sono allora le peculiarità di questo CMS “derivato” che potrebbero farlo preferire ?
Blog Ghost è un CMS open source che consente ai blogger un utilizzo relativamente semplice al fine di pubblicare facilmente i loro contenuti (con correlata anteprima in tempo reale, eludendo così un primo limite di WordPress, fondato su un editor WYSIWYG dove il passaggio da editor visuale ad editor testuale è sempre così preciso). Alla stregua delle cose più naturali, Ghost nasce da un discussione partecipata attorno ad un post pubblicato nel novembre del 2013 da John O’Nolan il quale propose la nascita di una nuova piattaforma incentrata su un unico obbiettivo: fare blogging; post condiviso da molti a significare dunque la necessità di implementare una nuova piattaforma dedicata al blogging, più snella e fruibile da gestire, riducendo i passaggi necessari per iniziare.
Ed è proprio questa idea base, la semplicità, che ha dato slancio al progetto per gli sviluppatori, tanto che da lì a poche settimane è stata resa disponibile la prima versione base della piattaforma web.
Da un primo confronto, Ghost si presenta come un CMS leggero e pronto all’uso: punti di forza di Blog Ghost sono la velocità di accesso al sito, un’interfaccia semplice ed intuitiva, un editor markdown (modalità per aggiungere la formattazione – corsivo, grassetto, elenchi puntati, ecc. – ai testi) innovativo. Caratteristiche che faranno un pò storcere il naso a chi proviene o già mastica il CMS WordPress è una scarsa disponibilità di temi a corredo per “fantasmino” (a meno che si voglia intervenire direttamente sul codice sorgente) e l’assenza del supporto di plugin da installare proprio per facilitarne al massimo l’utilizzo, rendendolo in questo modo però poco flessibile, ciò voluto per “rimanere fedeli” alla vocazione della piattaforma.
Una prima sostanziale differenza fra i due la si coglie già dalla dashboard (“la scrivania”) decisamente intuitiva, vocata alla semplicità, per Blog Ghost più “ricercata” quella di WordPress.

Dashboard Cruscotto di WordPress
Dashboard di WordPress

             

Dashboard Cruscotto di Blog Ghost
Dashboard di Ghost
Velocità caricamento di un sito
Velocità caricamento di un sito

 

 

 

 

Alla “spada di Damocle” dei siti web, vale a dire la velocità di caricamento, la risposta poggia sui diversi linguaggi su cui poggiano le due piattaforme: PHP per WordPress, che non è il massimo in termini di prestazioni necessitando di un tempo maggiore di risposta (pecca peraltro migliorabile mediante la disponibilità di plugin dedicati),

Node.js per Ghost che ne garantisce una struttura più prestante.  

Vista la giovane età, Blog Ghost attualmente non può contare su di una sviluppata e solida community ma perlopiù su forum di discussione, mentre su questo piano WordPress non ha concorrenza contando su una comunità decisamente diffusa e articolata.
In definitiva, Ghost è una soluzione ideale per chi ha interesse a fare blogging “allo stato puro”. Viceversa, se si è intenzionati ad una mera gestione della piattaforma, un blog che possa crescere, con il quale interagire la risposta è WordPress.

 

WordPress incontra Gutenberg: un binomio di web usability

(sabato 11 agosto)

WordPress Gutenberg: il piacere di scrivere

 WordPress 5.0 Gutenberg callout
WordPress 5.0 Gutenberg callout

In molti non se ne saranno accorti (o no ??) o non ci avranno fatto caso: da alcuni mesi accedendo alla bacheca di un blog realizzato con WordPress nella parte centrale si è fatta spazio un’anteprima destinata a scuotere la duttilità e l’utilizzo del CMS, interessandone cioè l’organizzazione strutturale. 

WordPress 5.0 Gutenberg callout

Con l’ultima versione, il CMS per autonomasia ha di fatto compiuto …. un bel salto all’indietro di 7 secoli, andando a scomodare Gutenberg (sì proprio quello della stampa a caratteri mobili) ! … L’adozione cioè di un nuovo editor visuale per la scrittura/gestione dei testi e articoli che scriviamo periodicamente, che inoltre va a semplificare l’approccio anche ai neofiti.

Atteso già dalla versione 4.8 del pacchetto, è con la versione 5.0 dello scorso mese di maggio – nella quale sarà quello predefinito – che è arrivata una ventata di novità in quanto de facto è stato reso fruibile al pubblico l’editor visuale, come alternativa a quello classico.

Il nuovo editor si presenta decisamente flessibile e promette delle novità interessanti nella gestione e stesura dei contenuti, proponendosi come una ineccepibile soluzione WYSWYG. Infatti, dalle premesse e prime indiscrezioni, Gutenberg permetterà di arricchire i nostri testi con una semplicità mai vista prima basata sulla scrittura a blocchi

Gutenberg editor demo
Gutenberg editor demo

, accompagnando l’utente praticamente nella progettazione minimale dei contenuti, rivolgendo questa potenzialità in particolare a chi non ha competenze specifiche, fino alla realizzazione di articoli ben formattati e adeguatamente strutturati.

Scrivere con WordPress Gutenberg è facile.
Scrivere con WordPress Gutenberg è facile
Working with Gutenberg blocks
Working with Gutenberg blocks

 

 

 

 

Pur mantenendo molte analogie con la precedente versione dell’editor, ‘Gutenberg’ si presenta maggiormente orientato alla web usability.

TinyMCE is no more
TinyMCE is no more

 

 

Un primo vantaggio confrontando le due versioni di editor è che quello targato ’GUTENBERG’ mette a disposizione un’area attiva maggiore, in particolare in larghezza, il che va a tutto vantaggio dei dispositivi con schermo ridotto, area che addirittura può essere adattata (“Post settings”) a tutto  schermo. Nella parte superiore a sinistra è inoltre presente uno switch che consente di passare dalla modalità visuale a quella testuale di visualizzazione del codice HTML consentendo così di creare o modificare blocchi direttamente da questa modalità. Ma la ciliegina la si apprezza quando viene selezionato un blocco di testo: vengono cioè mostrate le opzioni per spostarlo (i ‘tasti freccia’, su o giù), cancellarlo o accedere ad altre impostazioni di formattazione e stilizzazione. Sempre restando nella parte superiore dell’editor, si noterà l’assenza della tipica barra degli strumenti tipica di TinyMCE attivabile invece ora clickando sul pulsante “Insert” (.. ecco aprirsi un menu drop-down).

 

WordPress Gutenberg accompagna ad una nuova esperienza di produzione delle pagine basandosi sul concetto dei blocchi: quanto viene aggiunto di volta in volta alla pagina viene considerato come ‘un box separato’ e pertanto indipendente dal resto del testo quanto a formattazione e stilizzazione che vengono apportate.

Cosa significa lavorare per blocchi? Ogni paragrafo, immagine o video ha ora un editor specifico e può essere modificato indipendentemente dalle altre parti senza passare per la barra di formattazione principale (“presente” nello scrolling). Così per esempio se si plana su un paragrafo, ad esempio, si attivano i pulsanti per spostare il testo a sinistra o a destra, per aggiungere il grassetto e il corsivo. Oppure, a sinistra ci sono i comandi per spostare il testo sopra o sotto (le frecce) e il menu per aggiungere heading o quote.

Se parliamo di immagini, invece, ecco le opzioni per posizionare il contenuto rispetto al testo mentre il simbolo + visualizzato consente di aggiungere vari elementi quali titoli, liste puntate, liste numerate, foto e altro ancora. Queste vengono prelevate dalla libreria per essere inserite in un blocco con un certosino effetto fade ; inoltre, su di esse possono essere ora definite proprietà CSS.

 

 

 

 

Ecco le immagini prese da Gutenberg Editor Mockup.

 

 

 

 

 

 

 

Ecco il link ad un buon tutorial sulla presentazione e caratteristiche di WordPress Gutenberg:

 

E per una demo

https://testgutenberg.com/

 

 

Scrivere su web: SEO vs ‘Autenticità’

(sabato 4 agosto)

Ottenere una buona visibilità sui motori di ricerca è un punto fermo per i content writer, chi scrive online.

La scrittura online presenta delle sfaccettature che la distinguono come “arte” dallo scrivere sui mezzi cartacei.

Abilità imprenscindibile per il copywriter  è quella di saper creare contenuti autentici, di continuare cioè a far “traspirare” il proprio stile nei testi.

Anche se la qualità e la presentazione di un contenuto dovrebbero essere preservate, a volte la produttività del content writer viene inficiata dal rispetto delle ordinarie regole SEO: così accade che la propria “impronta” venga subordinata ai vincoli imposti dalle tecniche di ottimizzazione, talvolta peraltro innegabili per l’obiettivo di cui sopra.

‘Ma la frittata può essere rigirata’, potrebbe dirsi: se il punto focale del lavoro del copywriter è la buona scrittura nelle sue varie sfaccettature, non è detto che perciò i canoni SEO debbano prevalere su quello che è il proprio stile ma mantenere un carattere irrinunciabile “controcorrente”: l’autenticità. Ecco allora che per ottenere il risultato di attrarre lettori/clienti i testi devono essere formati e malleati senza bisogno di essere SEO-dipendenti. Occorre tenere ben presente che il successo di un contenuto non è tracciato tanto dall’osservanza delle regole delle Search Engine Optmization quanto proprio dal taglio che viene dato al testo e dal coinvolgimento che si è in grado di suscitare nel lettore.

Il lavoro dei copywriter è e resta pertanto quello di scrivere testi che convincano; a questi poi vanno integrati al meglio gli aspetti SEO. Ci sono tre miti in particolare che bisogna sfatare:

Contenuti duplicati – sì, è possibile

E’ e rimane un dato di fatto che Internet va a penalizzare i contenuti duplicati. Peraltro, ciò non rappresenta un grosso problema finché non sia una pratica destinata a creare confusione negli utenti o con il fine di manipolare i risultati di una ricerca. Per “regolarizzare” questa linea si fa ricorso alla canonizzazione, ovvero aggiungere un tag canonico (“rel= canonical”) all’indirizzo URL del contenuto in questione.

Parole chiave in ogni frase – no, non è necessario

Occorre sfatare il mito secondo cui il testo dev’essere imbottito di parola chiave al fine di ottenere un miglior posizionamento sui motori di ricerca. Se rimane vero che le parole chiave rivestono un ruolo importante per i testi online, il “peso” giocato assume importanza limitatamente all’algoritmo di Google aiutando a ricercare il contenuto e non chi legge il testo. Questo il motivo per cui in primo piano deve sempre esserci un’ottima leggibilità del contenuto; ancora meglio se poi si riesce a incorporare le parole chiave in modo ottimale.

Non importa la quantità ma la qualità

Anche se rimane un ‘verbo’ che i post più lunghi abbiano maggiori possibilità di raggiungere un posizionamento migliore, ciò non vuol dire che tassativamente bisogna scrivere articoli di una determinata lunghezza e non meno! Vero sì che questi possano avere un ranking migliore, denotando una trattazione più analitica e dettagliata dell’argomentazione, ma a prescindere dalla lunghezza quello che fa la differenza e che va a premiare sia il posizionamento del contenuto sia il gradimento dell’utente (i contenuti brevi e informativi vengono apprezzati da Google) è creare testi completi ed esaustivi.

Concludendo allora, non bisogna rinnegare la propria scrittura a favore della SEO. Scrivere rivolgendosi al proprio pubblico rimane l’obbiettivo da (per)seguire, tenendo comunque presenti gli aspetti per una valutazione positiva dal punto di vista SEO.

 

he

 

Il futuro della SEO nell’Inbound Marketing

(martedì 31 luglio)

Al periodo compreso fra gli ultimi anni Novanta e il 2000 è corrisposto una crescita esponenziale di attività, commerciali e non, agenzie piuttosto che liberi professionisti singole persone, sbarcare nel mare magnum di Internet. A ciò è conseguito uno sviluppo di tecniche con lo scopo di attaccare al meglio il nuovo mercato digitale per riuscire a posizionare al meglio il proprio spazio web nella SERP rispetto alla concorrenza e ugualmente raggiungendo nuove segmenti di clientela finora fuori portata: ciò è quanto perseguito in particolare dalla SEO.

SEO: uno degli elementi chiave dell’Inbound Marketing

L’Inbound Marketing si identifica come un insieme di attività il cui scopo è quello di attirare visitatori al proprio sito web con l’obiettivo (non scontato) di trasformarli in lead e quindi clienti della propria attività/offerta. Da ciò ne deriva che l’Inbound Marketing è un calderone in cui convergono diverse attività ‘operative’.

Al centro di un’azione di IM sta la creazione di contenuti di qualità e non da meno la determinazione di opportuni strumenti per proporli sulla vetrina del web.  Considerando che Google elabora mediamente 40.000 query al secondo si può ben intuire l’importanza della SEO per farci essere presenti nei risultati delle ricerche. Paradossalmente va detto che la Search Engine Optimization così come viene pensata ed attuata oggi è già obsoleta rispetto a ‘quella di domani’.

Gli aggiornamenti di Google e gli effetti su SEO e Inbound Marketing

Con gli aggiornamenti all’algoritmo degli ultimi anni (come Panda e Penguin, sono state apportate all’algoritmo modifiche finalizzate a contrastare il fenomeno dei ‘Black-hat SEO’ cioè quanti sono disposti a  raggirare i motori di ricerca al fine di posizionare i propri lavori nella SERP pur senza offrire contenuti di qualità. Così fino ai mesi più recenti in cui nelle modifiche agli algoritmi si è andato ad operare: sebbene non verranno svuotati completamente della loro importanza in una struttura, ad esempio keyword e backlink non verranno considerati come fattori primari in termini di indicizzazione di un sito.

Con l’aggiornamento dell’algoritmo di Google nell’ottobre del 2017 pensato per una buona indicizzazione anche da dispositivi mobile andava a considerare anche il tipo del dispositivo utilizzato, la posizione geografica, le intenzioni e il comportamento dell’utente: in molti, pur non pensandoci, ci avranno fatto caso ! Differentemente prima chi digitava una query approcciava con l’inserire le parole chiave e una volta ottenuti dei risultati doveva filtrare quelli più attinenti con quanto cercato. Adesso le query sono sempre più uniformate al linguaggio parlato e di conseguenza i motori di ricerca stanno migliorando nell’interpretare la volontà (e dunque l’interesse) di chi effettua la ricerca, ottenendo quindi risultati migliori.

I Topic Cluster a supporto della SEO

Se la SEO abituale era basata solidamente sul concetto e utilizzo delle keyword, avendo cura cioè che titoli e contenuti ne contenessero con una adeguata densità, dal 2013 con l’avvento di Hummingbird, il motore di ricerca approccia ad una interpretazione naturale del linguaggio, concentrando la comprensione all’intento di ricerca piuttosto che alle parole chiave. E così che molti operatori del settore vedono Hummingbird come il passaggio ufficiale dell’attenzione di Google dalle parole chiave agli argomenti (topic).

L’esplosione di questo passaggio lo si è avuto nel 2015 con l’aggiornamento a RankBrain, l’algoritmo di ricerca automatico progettato per una migliore comprensione del contesto delle ricerche sottoposte. Ecco allora che semplici ricerche sottoposte al motore di ricerca sortiranno risultati esaurienti sull’argomento, arricchendoli con recensioni, informazioni a corredo e mappe andando così oltre a quanto corrispondente alle sole parole chiave.

In questa maniera Google è passato al modello dei Topic Cluster. Una singola pagina (‘Pillar’) funge da raccoglitore principale di diversi contenuti attinenti un argomento generale, e ad essa sono collegate altre pagine correlate le quali rimandano alla pillar e alle altre pagine del Topic Cluster. Possiamo definirla come una tecnica dal momento che questa azione di collegamento segnala ai motori di ricerca che la pagina pillar è un’autorità sull’argomento e, così facendo, la pagina risulterà sempre più in alto nelle SERP per l’argomento trattato.

 

(tratto da www.extrasys.it)

 

 

Differenze tra blogger, webwriter e copywriter ?

 (venerdì 6 luglio)

Gli ultimi anni hanno visto il diffondersi esponenziale anche fra le mura di casa per una innata e sfrenata passione di avere un proprio spazio web. Un vero e proprio fenomeno di proliferazione che, nato fra le mura di casa quasi come fosse una ’emulazione’ di realtà ben più rilevanti e ambizione, ha finito letteralmente per divenire un “aspetto del nostro vivere quotidiano” (ce l’hai o non ce l’hai ?? L’avere un blog è divenuto un fenomeno di massa, realizzando il passaggio epocale dal classico diario dei segreti/dei ricordi cartaceo a uno strumento ‘più in linea con i tempi’ in cui custodire analogamente le stesse cose verosimilmente però con una forma più didattica.

Avere un “blog” è stato dunque il là per una vera e propria fonte di ruoli professionali, figure accomunante dalla passione per la scrittura su web cosiddetta “creativa“, sostanzialmente tre blogger,webwriter e copywriter, accomunate da una discreta padronanza della lingua italiana o forse per meglio dire capacità di modellarla in base alle esigenze, in ognuna delle quali poi germogliare e svilupparsi peculiarità che finiscono per caratterizzare le stesse. Chi riversa articoli “per il gusto di scrivere” ovvero mettendoci le sue passioni i suoi interessi

blogger webwriter e copywriter
Sovrapposizione nei ruoli fra blogger webwriter e copywriter

le sue riflessioni (blogger), con un occhio di riguardo alla gestione pure dei social; chi con l’obbiettivo di creare “contenuti di qualità” (web writer); chi si dipana per attirare l’attenzione di chi legge con un fine commerciale realizzando una call to action (copywriter).

 

Se dunque il blogger può essere pensato come il prototipo, da qui sono nate sostanzialmente tre figure “professionali” che si dilettano scrivendo sul web: il blogger, il (web)writer e il copywriter: tre modi dunque di intendere chi ha a che fare con la scrittura online ma che si diversificano per tenui sfaccettature. Non dunque distinzioni nette ma diverse specializzazioni di un “essere digitale e creativo” su web. Sfaccettature di una ‘eguale’ offerta, specializzazioni nate per rispondere a specifiche esigenze, le professioni di blogger, webwriter e copywriter (comprese quelle minori non riportate 1  2) si intersecano tra di loro, andando anzi paradossalmente a premiare la capacità di spaziare dall’un all’altra, tanto da non poterne tracciare una distinzione netta. Il successo di una campagna sta proprio nella sinergia tra di esse.

Da che parte stai ?
Chi sono ? .. (Dove vado ?) Cosa faccio ??

Di fronte ad un interrogativo che ci può porre legittimamente, non è però possibile compartimentare tra di loro queste figure, creare dei muri, dei tratti distintivi: come detto, ognuno è complementare all’altro, andando addirittura a premiare la capacità di spaziare dall’un all’altra quindi allargare il proprio raggio d’azione: così il copy si dovrà rapportare comunque con il web per espletare la sua attività, il webwriter dovrà avere una visione a 360° per arrivare al suo obiettivo.
Il blogger per me è “il poeta” quello che affascina il lettore, il copy è “il genio”, ‘quello che una volta letto il post trova il titolo che vale il click’, il webwriter è “il logico”, sa dove e quando!’: una definizione ad hoc per fare da spartiacque tra le tre.

E’ possibile poi individuare un connotato “cartina tornasole” che ha determinato una ulteriore specializzazione nel settore destinata a fare la differenza dal punto di vista professionale, ciò che in parte ha favorito la definizione di altre specializzazione: la SEO (Search Engine Optimization), ovvero l’arte di scrivere on line unita alla capacità di attrarre e ‘far rimanere sulla pagina’ il visitatore/lettore con buoni contenuti 1  2  3.

La riforma sul copyright ucciderà Internet e i suoi fruitori ?

(martedì 3 luglio)

Il prossimo 5 luglio il Parlamento Europeo si troverà a decidere su di una questione che, perlomeno nel nostro paese è rimasto assopito fino all’intervento di Di Maio: la riforma del copyright, cioè del diritto d’autore, volta ad armonizzare il gap esistente tra profitti e remunerazione sul mercato commerciale, approvato in via preliminare dall’apposita commissione parlamentare europea e che dovrà superare il banco di prova di tutto il legislativo di Bruxelles.

Riforma europea copyright
Alla vigilia di una direttiva europea sul copyright
 

Con essa il legislatore europeo ritiene di dover correggere un vuoto legislativo che ha permesso alle piattaforme che ospitano contenuti caricati dagli utenti (come YouTube) di evitare di pagare la relativa licenza per i contenuti stessi (musica, film, libri, ecc.), a scapito dell’industria culturale.
E’dal 2016 che l’Unione Europea caldeggia una riforma sul copyright volta a garantire ad editori e produttori che sviluppano e mettono in Rete contenuti non solo giornalistici una giusta retribuzione per il loro lavoro.
Come facilmente intuibile, è in corso un’accesa diatriba tra i maggiori produttori mondiali da una parte, Youtube e Facebook in testa, e gli editori/produttori dall’altra.
La direttiva è rivolta in primis alle piattaforme per l’uso dei contenuti protetti dal diritto d’autore, con Il fine di armonizzare il gap del valore tra profitti e remunerazione.

Il testo che sarà sottoposto al voto del Parlamento

Timori per sviluppatori e produttori di contenuti
Produttori e fruitori Internet ingabbiati sul libero uso della Rete ?

è finalizzato ad obbligare i giganti della Rete a pagare le royalties, non graverà pertanto sugli utenti finali ma così come si propone è destinato a creare panico sul “mare magnum” …

Sono due gli articoli che fanno più discutere, il numero 11 e il numero 13. Secondo l’articolo 11 i grandi network on line dovrebbero pagare nel caso di utilizzo di link e/o snippet (l’estratto di due righe che segue il link pubblicato dai motori di ricerca per anticipare all’utente il contenuto di una pagina web) avrà bisogno di un’autorizzazione da parte dell’editore del contenuto “a cui si punta” e/o citato e dovrà pagare a quest’ultimo un compenso. L’articolo 13 invece riguarda il diritto d’autore per opere artistiche caricate dagli utenti sulle piattaforme; prevede la responsabilità legale per piattaforme digitali tipo YouTube o Instagram, che dovranno inserire dei filtri, un algoritmo, capaci di individuare e bloccare il caricamento di contenuti protetti da copyright da parte degli utenti. Erroneamente, i contrari alla  possibile innovazione (tipo il vicepremier Luigi Di Maio) hanno già battezzato questa introduzione con il nome di “link tax“, ma non si tratta di una tassa quanto del pagamento di un diritto d’autore (da intendere come equo compenso per retribuire gli editori per l’utilizzo di un’opera protetta da diritto d’autore. Per poter indicizzare contenuti e permettere la visualizzazione dell’anteprima – snippet – i motori di ricerca dovrebbero pagare le testate, eventualmente sotto forma di abbonamenti).  Se il parlamento dovesse approvarla queste piattaforme dovrebbero inoltre ottenere una licenza per i contenuti di copyright consentendo in questo modo di generare un equo ritorno economico ai creatori. E pubblicare solo contenuti da parte di utenti che abbiano acquistato la licenza. L’obiettivo è risolvere quello che viene chiamato “value gap”, ovvero abbattere la forbice remunerativa che esiste nel mondo dello streaming tra quanto versano piattaforme come YouTube e altri servizi come ad esempio Spotify (addirittura, la prima arriva a pagare 20 volte di meno).

Di questa “causa” si è preoccupato anche direttamente il ministro Luigi Di Maio che ne ha parlato all’Internet Day lo scorso 26 giugno, prima di cui l’opinione pubblica in italia era del tutto ignara di ciò che stesse accadendo, che l’Europa stesse cioè dibattendo su un argomento che più o meno avrebbe influito su un aspetto della loro quotidianità.
Ed è diventato subito chiaro che questa riforma è davvero importante, con possibili conseguenze dirette su interi settori industriali, sulle persone che ci lavorano e non da ultimo sul diritto di tutti all’informazione.
Di Maio vede nel nuovo regolamento un pericolo, un possibile bavaglio per la rete: “Ci opporremo con tutte le nostre forze, a partire dal Parlamento europeo”. Una direttiva che, se approvata, il governo italiano potrebbe omettere di recepire.
Il vicepremier non è l’unica voce critica al provvedimento. In molti hanno espresso più di una perplessità davanti all’articolo 11 della riforma, ribattezzato link tax, che ‘ammazza’ i network fruitori di notizie, costringendoli a dipendere da una licenza a pagamento per potere continuare a segnalare le news provenienti da terze fonti. Una situazione che punirebbe i più piccoli e deboli, lasciando il campo libero a Facebook e a Google. Non solo: anche l’articolo 13 creerebbe non pochi cambiamenti nell’uso della rete: in pratica sarebbe vietato usare qualsiasi genere di contenuto di cui non si possiede il copyright.

Disaccordo Wikipedia
Wikipedia italiano oscurato

Chi il 3 luglio ha provato a fare una ricerca su Wikipedia si è imbattuto nella scritta: “Il 5 luglio 2018 il Parlamento europeo in seduta plenaria deciderà se accelerare l’approvazione della direttiva sul copyright. Tale direttiva, se promulgata, limiterà significativamente la libertà di Internet”.
Secondo la popolare enciclopedia digitale, la riforma sui diritti d’autore lederebbe la libertà on line e la stessa Wikipedia rischierebbe di chiudere.

Attorno a questa diatriba si sono facilmente create delle fake news che mirano solamene ad evidenziare ciò che di negativo potrebbe risultare passasse la direttiva:

1. Essere contrari alla proposta di direttiva europea non significa affatto essere contrari al diritto d’autore né non avere a cuore le sorti dell’industria creativa o di quella editoriale.  Il dibattito è volto esclusivamente a mettere nero su bianco proposta contro alcune disegualità del mercato dell’informazione. 
2. La proposta di direttiva non riguarda l’introduzione di nessuna nuova tassa né, tantomeno, di una tassa sui link. Piuttosto, prevede l’introduzione di una nuova forma di “equo compenso” che riguarderebbe gli editori a fronte dell’utilizzo commerciale di link e meta ai loro contenuti.
3. Essere contrari alla proposta di direttiva non significa consegnare Internet ai giganti del web come Google, Facebook & c.. Nel medio periodo è, probabilmente, vero l’esatto contrario. Sebbene obbligandoli a taluni adempimenti, la proposta di direttiva mette nelle mani dei big della Rete la responsabilità e tutti gli strumenti necessari a determinare una sorta di “dieta mediatica” di miliardi di cittadini del mondo. La “ricetta” starà verosimilmente nella capacità di aggregare contenuti, da offrire al pubblico a costo zero.
4. La proposta di direttiva non ha niente a che vedere con la libertà di stampa e la democrazia. Proporre un equo compenso salverà l’industria editoriale dalla crisi economico-finanziaria che sta attraversando e consentirà alla piccole e medie imprese di sopravvivere. 
5. Non è vero che la proposta di direttiva sul copyright abbia intenti censorei e neppure sia il risultato di accordi di sottobanco. Le sue origini sono, più semplicemente, da imputare alla circostanza che, purtroppo, è più facile riunire consensi attorno all’esigenza di difendere uno o più settori industriali ed altrettanti mercati che di difendere una o più libertà o diritti civili. Ma la responsabilità di questo stato di cose non può essere addebitata all’industria dei contenuti perché appartiene a ciascuno di noi e ai decenni di disinteresse.