Di pochissimi giorni fa uno scossone che ha investito gli operatori che adoperano Google Analytics (versione 4): con il garante della privacy che ha intimato lo “stop all’uso degli Analytics” a causa di “Dati trasferiti negli USA senza adeguate garanzie” e “ … senza le garanzie previste dal Regolamento Ue, viola la normativa sulla protezione dei dati perché trasferisce negli Stati Uniti, Paese privo di un adeguato livello di protezione, i dati degli utenti ..“.
Il sito su cui poggia il servizio di Google Analytics infatti, senza adeguate garanzie come previsto dal regolamento UE, “viola la normativa sulla protezione dei dati perché trasferisce negli Stati Uniti, Paese privo di un adeguato livello di protezione, i dati degli utenti.“. E’ quanto affermato dal Garante per la privacy a seguito di una non facile indagine basata su una base di reclami e condotta con l’autorità sulla privacy di altri paesi europei. Dall’inchiesta del Garante è emerso che i gestori dei siti web che utilizzano Google Analitycs raccolgono, mediante cookie, informazioni sugli utenti che navigano, le singole pagine visitate e i servizi loro proposti; rispetto alla normativa Usa, la privacy non viene tutelata legalmente come in Europa. Addirittura, il solo caricamento dello script è trasferimento all’estero, poiché se si vuol ricevere lo script necessario il proprio IP deve essere mandato in America (cioè trasferimento all’estero di dato personale). Tra i molteplici dati che vengono raccolti, l’indirizzo IP del dispositivo dell’utente e le informazioni relative al browser e al sistema operativo utilizzati sono considerati oggetto di trasferimento verso gli Stati Uniti. Inoltre, l’indirizzo IP viene ritenuto dato personale e anche qualora fosse troncato non diverrebbe un dato anonimo, considerata l’attuale capacità di Google di arricchirlo con altri dati (leggi ‘rich snippet‘).
Fulcro della diatriba è l’anonimazione del dato. Emerge che il trasferimento dei dati fra imprese nell’Unione Europea è protetto e si basa sul GDPR (dunque eguale trattamento di protezione dei dati personali per le società su territorio nazionale). Per contro, il trasferimento di dati verso altri paesi (America e non) prevede che ci debbano essere delle ulteriori garanzie (clausole contrattuali standard) per garantire le attività, precludendo che terzi possano vedere i dati stessi. Sintomo di un disallineamento in fatto di tutela della privacy (e quindi di GDPR) dei paesi europei e nei rapporti fra questi e l’America. Problematica di non facile soluzione, dal momento che praticamente Google Analytics fa da padrone nel campo dello scambio dei dati, anche se potrebbero essere considerate soluzioni alternative più o meno all’altezza …
Verrebbe da azzardare anche la (paradossale) possibilità di mantenere i dati in server dislocati nel proprio paese ma per ciò occorrerebbe anzitutto verificare l’architettura della struttura stessa ! In definitiva allora si tratta di un mero caso di policy piuttosto che di privacy, un problema che deve essere risolto a livello politico. Difficile pensare che GA venga smontato ma necessario che sia Google stessa a compiere una valida azione, pena lo stravolgimento del settore.
Periodicamente Google apporta delle modifiche al proprio algoritmo, con l’intento di migliorare i risultati di ricerca. Più sporadici sono invece quegli aggiornamenti, più sostanziosi e importanti, che vanno ad interessare più da vicino i sistemi dell’algoritmo di ricerca di Google. Questi ultimi prendono il nome di Core Update e hanno il fine fornire al meglio le informazioni presenti sul web garantendo in questo modo all’utente delle risposte valide e il più attinenti possibile alla ricerca. L’abilità di capire gli intenti di ricerca e in base ad essi offrire un elenco di siti ordinati secondo dei criteri di rilevanza è la base del successo di Google.
Dunque, i Core Update di Google sono degli aggiornamenti dell’algoritmo del motore di ricerca che hanno grande influenza sulle SERP, determinando molte variazioni nel ranking dei siti web.
La maggior parte degli aggiornamenti effettuati resta ignara ai più e non viene resa pubblica, anche se fa sentire i suoi effetti in termini di SERP: infatti, nonostante questi cambiamenti non siano comunicati agli utenti, in realtà essi pesano (seppur non tutti allo stesso modo) sul miglioramento delle prestazioni del motore di ricerca. Altre volte, invece, gli aggiornamenti vengono resi pubblici in ragione della portata che hanno e delle conseguenze che da essi potrebbero derivare. Talvolta accade che i preavvisi vengano lanciati qualche mese prima, e questo fa capire l’importanza della modifica.
Gli aggiornamenti più importanti si hanno con un intervallo di pochi mesi l’uno dall’altro. Gli aggiornamenti chiamati “principali” servono per lo più ad apportare cambiamenti significativi alle prestazioni dei motori di ricerca: in questo modo Google si assicura di offrire sempre il meglio dei contenuti, e che siano davvero pertinenti ed interessanti per l’utente.
Quando avviene uno di questi importanti cambiamenti, accade che alcune pagine perdano traffico: è normale che ciò accada ma non si tratta né di violazione delle linee guida da parte operativa, né tantomeno di una manovra fraudolenta o di una penalizzazione dell’algoritmo. Non sono orientati a penalizzare le pagine dei siti anzi in quanto, al contrario, le modifiche sono pensate per migliorare il modo in cui si valutano i contenuti affinché vengano apprezzate anche pagine che in passato non sono state abbastanza premiate, dunque le spinge a far meglio.
Ma come funzionano? Il meccanismo di queste modifiche è molto semplice, e per comprenderlo possiamo fare un esempio lampante: si immagini di dover compilare un elenco dei 100 migliori film del 2015 e poi, a distanza di qualche anno, aggiornarlo inserendo nuovi titoli interessanti di film trasmessi fino ad oggi. Di sicuro l’elenco non sarà più lo stesso di prima.
Quindi, per le pagine che registrano un calo non c’è nulla di cui preoccuparsi: è un fenomeno fisiologico ed anche ricorrente.
Di sicuro sarà opportuno cercare di trovare una soluzione immediata. Il consiglio principe è di concentrarsi sui contenuti: più questi saranno di qualità rispondendo al Search Intent, meglio le pagine verranno posizionate dagli algoritmi. Impegnarsi non solamente a creare contenuti altamente qualitativi e meritevoli, ma anzitutto a capire cosa determina la qualità eccellente di un contenuto.
Per far sì un contenuto sia di qualità è necessario fare un’autovalutazione di ciò che si va a pubblicare, fare un pò di “autocritica”: l’unico modo per avere la certezza di offrire qualcosa di originale e meritevole. Per svolgere adeguatamente questo lavoro di non poca rilevanza, occorre porsi delle specifiche domande, suddivise per categorie. Questioni relative a caratteristiche intrinseche nel testo (quindi originalità e completezza di argomentazione, autenticità e autorevolezza dello stesso, evitando cioè di fare un banale copia e incolla da altre fonti; attendibilità e completezza delle informazioni riportate; valutazione su semplicità e sobrietà del contenuto, evitando cioè ridondanze, oltre che accuratezza nello scritto; l’essere aperti a confrontare la propria pagina con altre con il fine di vagliare eventuali spunti sull’argomento e così migliorare.
Diversi accorgimenti sono stati effettuati nel corso del tempo, dalle innovazioni apportate da Knowledge Graph ai successivi aggiornamenti degli algoritmi di ranking volti a migliorare sempre più i risultati e al tempo stesso la soddisfazione degli utenti. Per questo apporta accorgimenti volti a perfezionare la pertinenza e la qualità dei risultati di ricerca. La gran parte di essi passano inosservati, non lasciando particolari tracce sui nostri siti; differente “peso” hanno quando influiscono sul posizionamento e ordinamento dei risultati di ricerca.
Il 2020 ha visto il susseguirsi 3 Google Core Updates (gennaio, maggio, dicembre). Di questi, rilevanza hanno assunto gli ultimi due in quanto comportavano una determinante variazione del proprio posizionamento poiché con essi venivano presi in considerazione diversi parametri come search intent dell’utente, pertinenza, rilevanza, autorevolezza dei contenuti, user experience e mobile experience. Così i settori che più ne hanno risentito sono stati il turismo, l’immobiliare, salute e benessere, di animali domestici, persone e società, relativi ad eventi pubblici. Solo i siti che hanno curato poco i loro contenuti hanno ottenuto un’evidente penalizzazione; al contrario, chi ha focalizzato l’attenzione sulla chiarezza dei contenuti e la qualità nella propria strategia di comunicazione è uscito indenne dall’intervento di Big G.
Nel 2021, la maggior parte degli utenti naviga il web prevalentemente da dispositivi mobili, perciò è diventato indispensabile che i siti risultino performanti, veloci e facilmente utilizzabili. Da maggio 2021 poi si aggiungerà un nuovo elemento alla nutrita lista di criteri di valutazione per determinare il ranking dei siti web. Oltre a velocità di caricamento delle pagine, ottimizzazioni mobile first, sicurezza HTTPS, etc… anche le metriche Core Web Vitals diventeranno fattori di ranking. Si tratta di quell’insieme di fattori che influiscono sull’esperienza dell’utente una volta che arriva sulla pagina e lo convincono a restarci più a lungo o ad abbandonare velocemente il sito per passare al successivo. Tra questi abbiamo il caricamento della parte principale della pagina (noto come Largest Contentful Paint o LCP), che deve verificarsi in un intervallo di tempo inferiore ai 3 secondi, il tempo necessario per effettuare la prima interazione (First Input Delay), valore accettabile se inferiore ai 100 millisecondi, la stabilità visiva della pagina (Cumulative Layout Shift), ovvero l’eventuale presenza di elementi grafici che in fase di caricamento possano rendere difficoltosa la user-experience, la cui misura di riferimento in questo caso è lo spazio.
Arrivando al 2022, di una certa rilevanza e di “ampio respiro” (come portata dell’aggiornamento, da quel che trapela) è stato poi il Google Core Update di fine maggio: l’aggiornamento eseguito non deve essere visto come una penalizzazione ma volto a dare rilevanza a quei contenuti che Big G considera di maggiore interesse in base alle ricerche degli utenti.
Nel panorama delle piattaforme di e-commerce, WooCommerce e Shopify sono quelle più affermate e popolari, più facili ed utilizzate sul mercato (12). Ambedue possono essere utilizzate senza bisogno di particolari requisiti né dell’aiuto di professionisti; ognuna delle due presenta propri punti di forza per rappresentare la soluzione ideale al fine di implementare il proprio negozio online come pure svantaggi. Primo carattere distintivo fa riferimento alla loro “natura”: mentre Shopify è a pagamento, WooCommerce, plugin associato al CMS WordPress, è fondamentalmente gratuito, fintantoché non si voglia personalizzarlo secondo le proprie esigenze.
Shopify è un ‘prodotto chiavi in mano’: una volta acquistato “pronti-via” … si va in strada con la sola preoccupazione di allestirlo con i propri prodotti etc. (.. affermazione comunque del tutto relativa, considerando comunque la sua strutturazione !). WooCommerce invece si presenta come un vero e proprio programma ‘indipendente’, da personalizzare in base alle proprie esigenze in termini di ecommerce.
Una delle decisioni principali da parte dell’utente è (saper) cogliere se è orientato ad una piattaforma di e-commerce open source (gratuita) piuttosto che ad una più user-friendly che al contrario prevede una tariffa mensile. Shopify è la soluzione ideale per iniziare da subito, eliminando complicazioni dovute all’hosting (acquisto dello spazio per il sito web) e alla gestione degli aspetti tecnici legati al negozio online, sostituendoli con una svariata gamma di strumenti di facile utilizzo per le varie esigenze, rendendolo così funzionante in pochi minuti. Shopify è la scelta ideale se si desidera un pacchetto all-in-one per il proprio negozio di e-commerce. WooCommerce si presta invece alla personalizzazione del proprio ecommerce. Approfondimenti qui: https://ecommerce-platforms.com/it/compare/shopify-vs-woocommerce-comparison#woocommerce-vs-shopify-difference
Shopify è una soluzione di e-commerce all-in-one progettata per offrire tutto il necessario per iniziare subito. Consente di ‘bypassare’ eventuali complicazioni che possono derivare dal dover gestire gli aspetti tecnici ricorrendo invece a strumenti di facile utilizzo. Se questi ne sono i privilegi, se cioè Shopify ha il pregio di essere funzionante in pochi minuti, ciò si traduce nella mancanza di un controllo completo sul progetto. WooCommerce, a parte il fatto di essere in stretta relazione con WP, si presenta come una piattaforma open-source (‘Le soluzioni open source sono spesso piene di funzionalità uniche perché vengono costantemente sviluppate‘) e self-hosted cioè prevede pieno controllo sia sul dominio del sito che sull’hosting, pieno controllo sui contenuti che vengono caricati permettendo, a differenza del concorrente, e di avere il controllo su aspetti più peculiari (come il citato hosting). Può inoltre contare su di una vasta community, garantendo una piena personalizzazione del negozio online.
In definitiva, Shopify offre tutte le funzionalità necessarie per gestire e far crescere la tua attività. WooCommerce è la soluzione ideale se si ha già un sito wordPress e si vuole poter avere un maggiore controllo sul proprio negozio.
L’approccio con il mondo della SEO implica spesso, soprattutto per i neofiti, un utilizzo errato di terminologie; fra queste, penso sia diffusa la confusione che si viene a creare parlando di ‘indicizzazione’ e ‘ottimizzazione’.
Con il termine “indicizzazione” si intende semplicemente l’inserimento di un sito o un blog in un motore di ricerca. In ciò differisce dal ricorrente e più “sulla bocca” processo di ottimizzazione, il quale riguarda l’insieme delle attività finalizzate a migliorare la visibilità del sito/blog sui motori di ricerca.
Processo che si realizza attraverso tre step:
-segnalazione sito al motore di ricerca;
-creazione e inserimento del file sitemap.xml
– essere citati da altre fonti (essere citati o meglio linkati da altri siti web è spesso considerato come sinonimo di qualità e/o interesse)
Se un sito non viene indicizzato, non può comparire nei risultati di ricerca. L’indicizzazione di siti internet viene effettuata in maniera automatica dal motore stesso, tramite particolari programmi chiamati spider (“ragni”), che entrano in un sito e ne leggono il codice sorgente.[/caption]
L’indicizzazione SEO è un processo, quindi un insieme di azioni, che ha come unico obiettivo quello di raccogliere le informazioni relative ad una certa pagina web e renderle disponibili nel database del motore di ricerca.
Interessante notare che quando un utente effettua una ricerca su Google, quest’ultimo deve interpretare il suo bisogno intrinseco nella ricerca, capire quale tra i tanti siti internet che compongono la rete risponda meglio al suo bisogno e restituire una lista di siti che soddisfino al meglio la richiesta dell’utente “intento di ricerca” (questa operazione deve avvenire in pochi istanti: è per questo che il motore deve avere già memorizzate al proprio interno il maggior numero possibile di info sulle pagine, pena l’esclusione della stessa/e dall’attività di ricerca).
Terminata l’attività di registrazione del sito, i motori di ricerca scansionano periodicamente i siti presenti nel proprio db per verificare eventuali aggiornamenti ricorrendo al servizio add-url (segnala un sito al motore di ricerca): tramite particolari programmi chiamati spider (letteralmente “ragni”, nel senso che essi attraversano la “ragnatela” di collegamenti eletto stereotipo con cui si raffigura simbolicamente il web), entrano in un sito e ne incominciano a leggere il markup HTML, alla ricerca di eventuali modifiche del contenuto o della struttura; procedendo in cascata, se trova un link a un’altra pagina del sito o ad un altro sito, analizza anche quest’ultimo di conseguenza.
Dopo aver scansionato la rete e quindi indicizzato (nel senso di raggruppato) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’analisi delle parole chiave contenute. In questo modo i motori di ricerca, tramite gli algoritmi, assicurano ai loro utenti contenuti validi e aggiornati.
Quando il motore di ricerca termina di scansionare i siti già presenti in archivio passa a scansionare tutti i siti proposti nel motori di ricerca. Questo sistema è oramai obsoleto: è preferibile fare uso di strumenti più moderni per monitorare il proprio sito, come ad esempio la Search Console di Google.
Da notare che il sito non viene indicizzato se nel codice sorgente sono presenti determinate istruzioni (ad esempio come <meta name=”robots” content=”noindex”> oppure <meta name=”robots” content=”noimageindex”>); se invece non è specificato nulla a riguardo, viene indicizzato l’intero contenuto della pagina Web.
A questo punto, scansionata la rete e indicizzata (cioè raggruppata) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’apprezzamento delle parole chiave trovate al suo interno e alla “fedeltà” e attendibilità dei contenuti (ciò avviene in base alla logica dell’algoritmo utilizzato dal motore di ricerca).
Avere un sito indicizzato su Google piuttosto che Bing o Flickr significa che le URL che lo compongono sono state inserite nella banca dati del motore di ricerca, e conseguentemente quando l’utente eseguirà una ricerca lo stesso comparirà nella SERP (lista dei risultati che vengono trovati). Quando si parla di indicizzazione è sempre meglio parlare in termini di singoli url e non del sito nella sua integrità: non è infatti detto le sue pagine (che possono essere anche svariate, ognuna delle quali contraddistinta da un preciso “url”) siano presenti nell’indice del motore di ricerca: alcune possono essere duplicate, altre possono finire nell’indice secondario di Google, altre possono risultare ignare perchè non essere ancora scansionate dallo spider.
Se le attività che riguardano l’indicizzazione sono eseguite automaticamente dal motore di ricerca, quelle di ottimizzazione (attività di SEO – Search Engine Optimization) vengono svolte dalle persone, con la finalità di incrementare il posizionamento organico (cioè non a pagamento) di un sito nei risultati dei motori di ricerca, con l’obiettivo di far apparire il proprio sito in cima alle liste di risultati.
Quindi indicizzazione e posizionamento sono due processi molto differenti tra loro. Il primo ha come unica finalità quella di inserire un sito o una pagina web nel database del motore di ricerca; il secondo invece, mediante opportune strategie web e di Inbound Marketing* mira a portare un determinato sito nelle primissime posizioni dei risultati organici di Google.
Attualmente esiste un cospicuo numero di piattaforme dedicate al blogging (WordPress, Tumblr, Blogger, Medium, Svbtle, LiveJournal, Powerpad, Postach.io, Pen.io, Ghost) sul mercato, destinato ad avere ulteriori sviluppi. Fra di essi, la piattaforma CMS più popolare nel settore è indiscutibilmente WordPress.
Verosimilmente, l’aspirazione di chi si avvicina a questo mondo è di poter utilizzare il miglior strumento disponibile. Da questo punto di vista, la lotta è fra WordPress e Ghost.
Nel corso degli anni, WP ha fatto passi da gigante in termini di miglioramento dell’usabilità della piattaforma. Se primeggia nella creazione e gestione di blog, questo CMS ha assunto via via importanza anche nel settore della creazione di siti web, e-commerce e svariate soluzioni on line. Ghost nasce come costola di WordPress e proprio la genesi lo pone come suo diretto concorrente.
Quali sono allora le peculiarità di questo CMS “derivato” che potrebbero farlo preferire ? Blog Ghost è un CMS open source che consente ai blogger un utilizzo relativamente semplice al fine di pubblicare facilmente i loro contenuti (con correlata anteprima in tempo reale, eludendo così un primo limite di WordPress, fondato su un editor WYSIWYG dove il passaggio da editor visuale ad editor testuale è sempre così preciso). Alla stregua delle cose più naturali, Ghost nasce da un discussione partecipata attorno ad un post pubblicato nel novembre del 2013 da John O’Nolan il quale propose la nascita di una nuova piattaforma incentrata su un unico obbiettivo: fare blogging; post condiviso da molti a significare dunque la necessità di implementare una nuova piattaforma dedicata al blogging, più snella e fruibile da gestire, riducendo i passaggi necessari per iniziare.
Ed è proprio questa idea base, la semplicità, che ha dato slancio al progetto per gli sviluppatori, tanto che da lì a poche settimane è stata resa disponibile la prima versione base della piattaforma web.
Da un primo confronto, Ghost si presenta come un CMS leggero e pronto all’uso: punti di forza di Blog Ghost sono la velocità di accesso al sito, un’interfaccia semplice ed intuitiva, un editor markdown (modalità per aggiungere la formattazione – corsivo, grassetto, elenchi puntati, ecc. – ai testi) innovativo. Caratteristiche che faranno un pò storcere il naso a chi proviene o già mastica il CMS WordPress è una scarsa disponibilità di temi a corredo per “fantasmino” (a meno che si voglia intervenire direttamente sul codice sorgente) e l’assenza del supporto di plugin da installare proprio per facilitarne al massimo l’utilizzo, rendendolo in questo modo però poco flessibile, ciò voluto per “rimanere fedeli” alla vocazione della piattaforma.
Una prima sostanziale differenza fra i due la si coglie già dalla dashboard (“la scrivania”) decisamente intuitiva, vocata alla semplicità, per Blog Ghost più “ricercata” quella di WordPress.
Dashboard di WordPress
Dashboard di Ghost
Velocità caricamento di un sito
Alla “spada di Damocle” dei siti web, vale a dire la velocità di caricamento, la risposta poggia sui diversi linguaggi su cui poggiano le due piattaforme: PHP per WordPress, che non è il massimo in termini di prestazioni necessitando di un tempo maggiore di risposta (pecca peraltro migliorabile mediante la disponibilità di plugin dedicati),
Node.js per Ghost che ne garantisce una struttura più prestante.
Vista la giovane età, Blog Ghost attualmente non può contare su di una sviluppata e solida community ma perlopiù su forum di discussione, mentre su questo piano WordPress non ha concorrenza contando su una comunità decisamente diffusa e articolata.
In definitiva, Ghost è una soluzione ideale per chi ha interesse a fare blogging “allo stato puro”. Viceversa, se si è intenzionati ad una mera gestione della piattaforma, un blog che possa crescere, con il quale interagire la risposta è WordPress.