Panoramica sulla SEO

(venerdì 8 febbraio)

Quando eseguiamo una ricerca su un qualsiasi motore di ricerca – Google Chrome, Internet, Safari, .. – viene generata un elenco pressocché infinita di risultati “attinenti” che prende il nome di SERP (Search Engine Results Page, ovvero “Pagina dei Risultati del Motore di Ricerca“). Ma come si origina questa lista ? con che logica e in base a quali criteri viene stilata seppur automaticamente ?
E’ questa una delle sfaccettature del Web che probabilmente rimane seminascosta ai più, specie se non si è interessati ad un “posizionamento” del proprio progetto web.
Esiste una “nicchia” che s’interessa specificamente e studia la collocazione di un sito web nella lista dei risultati che ci appare a terminale: stiamo parlando della SEO (‘Search Engine Optimization’). Un problema che assume indubbiamente particolare rilevanza per chi, titolare di una attività, fa del proprio sito una vetrina per la vendita di prodotti e/o servizi.


Il concetto di SEO nasce attorno al 1995 quando venne introdotto un insieme di strategie con la finalità di ottenere il miglior posizionamento – “ranking” – per un sito; al’epoca vigeva il dominio incontrastato di Yahoo! quale motore di ricerca. L’avvento di Google verso la fine degli anni Novanta comportò uno stravolgimento sul campo e la crescente complessità degli algoritmi che ne sarebbe conseguita, insieme al miglioramento dei nuovi motori di ricerca, compromisero gli equilibri esistenti sul mercato. Google inoltre cominciò a lavorare e lavora attualmente all’aggiornamento del proprio algoritmo per renderlo sempre più efficace e dettagliato nei risultati.

Fare SEO (Search Engine Optimization) significa adottare tutto un insieme di tecniche, strategie e regole finalizzate a far avere al progetto web su cui si sta lavorando un risultato di visibilità in termini di SERP. Scienza per definizione astratta in quanto non si basa su risultati certi e determinabili in un arco temporale definito bensì in continua evoluzione (si pensi all’adozione di algoritmi di ricerca sempre più affinati e specifici per ottenere il meglio dei risultati).

Componenti essenziali per condurre una buona attività SEO

Un’attività SEO, opportunamente preceduta da una attività di studio del settore e di pianificazione della strategia, a prescindere dal tipo di progetto da trattare, poggia fondamentalmente su due pilastri, due modalità operative: si tratta dell’Ottimizzazione SEO On Page e dell’Ottimizzazione SEO Off Page. Ognuna delle due tecniche prevede la necessità di dover operare su diversi parametri (‘fattori’) o adottare idonee strategie. La prima, tassello fondamentale della SEO, concerne l’adozione di determinati accorgimenti/migliorie sulla struttura del sito stesso (codice), la seconda riguarda tutto quell’insieme di strumenti che danno opportunità di far conoscere all’esterno il proprio sito (es. ottenere dei backlink – il fattore più importante per ottenere il miglior posizionamento possibile -. Essi in particolare vengono interpretati da Google come dei ‘punti’: più punti ottiene, più il sito è importante più Google lo premia con le prime posizioni).

Se per definizione l’Ottimizzazione per i Motori di Ricerca fino a non più di due anni fa era incentrata sul concetto di keyword e nozioni ad esse correlate come densità e ricorrenza e dava valore pure all’enfatizzazione del testo (grassetto, corsivo, ecc.), sia pure con l’introduzione di alcuni accorgimenti (ad esempio “long tail“), negli ultimi anni proprio l’inconsistenza del fare affidamento solo su di esse per una ottimizzazione seo emerse l’esigenza di andare oltre all’analisi delle kw per provare a comprendere il significato “intrinseco” delle parole in virtù di un “web semantico” (le keywords non erano più sufficienti ad ottenere risultati di qualità), ovvero guardare ad una specializzazione delle ricerche cogliendo l’accezione del termine ricercato (il valore semantico), ha fatto sì che cambiassero i “pesi” in gioco. L’avvento della semantica ha cioè fatto sì che non fosse più sufficiente affidarsi semplicemente ad uno specifico ed adeguato utilizzo di keywords in un contenuto/pagina web per migliorarne la visibilità in termini di SERP. SEO oggi significa adottare delle semplici regole che consentono ai motori di ricerca di comprendere l’argomento trattato dal sito/pagina e ai visitatori di trovare ciò che cercano.

Approcciando alla SEO occorre inoltre tener distinti i concetti di “indicizzazione” e “posizionamento”, termini spesso confusi … Indicizzazione è un processo naturale conseguente all’indicizzazione del sito; posizionamento è l’attività in senso stretto di ottimizzazione, interna ed esterna, del sito al fine di migliorarne la visibilità in termini di “query”.

Al concetto di SEO si affiancano quelli di SEM e Web Marketing. Detto della prima (‘Search Engine Marketing ‘) l’insieme delle attività messe in atto da un professionista dei motori di ricerca allo scopo di migliorare il posizionamento delle pagine di un sito web sulle pagine dei risultati organici (anche detti risultati naturali)
risultanti dai motori di ricerca – cioè non riconducibili a ‘strumenti a pagamento’ -, come Adwords o Adsense, Web Marketing indica invece le azioni di carattere commerciali – attuate per incrementare la visibilità e la rintracciabilità di un sito web tramite i motori di ricerca.

Verso il Web Semantico: il Knowledge Graph

(lunedì 4 febbraio)

Con l’avvento degli ultimi algoritmi supportati dai motori di ricerca (Hummingbird e RankBrain su tutti) la tendenza del settore è stata quella di fornire all’utente risultati sempre più specifici e attinenti alle query sottoposte (intento di ricerca). E questo sarà uno dei trend del settore nel 2019.

“Knowledge Graph”, questo sconosciuto

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) fu fin dal principio quello di classificare le informazioni disponibili nel web secondo una serie di relazioni. Gran parte dei servizi tecnologici che utilizziamo poggiano su enormi grafi.

Tutto questo lo fa grazie alla ricerca semantica, mettendo in relazione la query effettuata dall’utente col suo intento di ricerca e le informazioni che potrebbero essere più interessanti.

Il primo cambiamento di Google è stato nell’adozione di un motore semantico che pertanto potesse essere in grado di rispondere alle nuove esigenze di ricerca: di qui il motore di ricerca assume un connotato di intelligenza artificiale.

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) è da sempre quello di classificare le informazioni disponibili nel web secondo una serie di relazioni.

Con il supporto del Knowledge Graph Google è stato in grado di semplificare le ricerche affinando la ricerca semantica in senso stretto.

Come appare in una ricerca un Knowledge Graph

Schematicamente, il Knowledge Graph si presenta come una scheda informativa a destra nella SERP dove poter trovare informazioni su personaggi, luoghi famosi, città, opere d’arte, film, avvenimenti, eccetera (in funzione della query posta)… il tutto senza esplorarne i risultati.

Il pregio di questa soluzione è di ottenere ‘risultati migliori‘ incrociando informazioni provenienti da diverse fonti con altre da siti autorevoli individuati dal motore di ricerca.

Google Duplex


Recentemente, nel maggio del 2018, durante l’annuale conferenza di casa Google per gli sviluppatori, è stata presentata quella che passerà come una novità assoluta per il settore: “Google Duplex”, applicazione di machine learning deputata  a fare il lavoro.

Analizzando Google Duplex, si possono cogliere alcune peculiarità fondamentali: per la tonalità della voce, la capacità di interagire e di condurre la conversazione, Google Duplex sembra praticamente umano. Si comporta come un automa, cioè dietro al programma non c’è nessuno che suggerisce le risposte. L’assistente vocale è indipendente e risponde in maniera dinamica alle interrogazioni; non ha preregistrata nessuna serie di risposte da utilizzare bensì per ciò si basa sul “web visibile”. Potendo contare su un elevato numero di pagine web fornite dal motore di ricerca, di volta in volta è in grado di passare contenuti rilevanti in base a quella che è la ricerca.

In breve, Google Duplex è stato “allenato” ad utilizzare il linguaggio umano partendo da un elevato numero di conversazioni.

Il concetto di machine learning (in cui rientra come detto Google Duplex, che è strettamente correlato a quello di intelligenza artificiale, tecnologie valide che che si contraddistinguono per il fatto di riuscire a processare una mole enorme di dati in maniera velocemente.

Google Knowledge Graph, uno step oltre la parola chiave

16 Maggio 2012, Google annuncia per la prima volta ufficialmente il lancio di un enorme Knowledge Graph.

Prima ancora che Google nascesse, la ricerca era legata all’utilizzo di parole chiave: infatti, la parte di ricerca faceva uso di un semplice matching di parole chiave. Ma le parole chiave non sempre bastano.

Nel momento in cui sottopongo un termine cioé non è dato sapere con quale accezione (in che contesto) debba essere inteso ! ed è proprio qui che interviene la potenzialità del ‘knowledge graph’.

Cosa vuol dire “Knowledge Graph”

Knowledge Graph cambia le cose. Il “graph” sviluppato da Google, infatti, rende il motore di ricerca un elemento più vicino agli utenti e consente di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive, città, edifici, personaggi storici, opere d’arte. Tutto direttamente all’interno del motore di ricerca. Vengono annullate le ambiguità. Ora è in grado di riconoscere la differenza tra le diverse accezioni del termine e può proporre da subito le risposte alle possibili query.

Mentre maturava l’idea del “grafo”, un ulteriore passo in avanti lo si è fatto nel 2005 quando è stato introdotto il nuovo algoritmo RankBrain mediante cui a fronte di una ricerca è possibile ottenere i migliori risultati possibili, ciò utilizzando quella che viene definita “Intelligenza Artificiale”. Mediante questa, grossi volumi di info e dati vengono trasformati in entità matematiche (“vettori“) comprensibili all’elaboratore.

Componenti principali di un motore di ricerca

(30 dicembre)

Sappiamo tutti cosa sia un motore di ricerca ……, la sua funzione e il suo ruolo in tema di “ricerche”. Se Internet è uno strumento di cui oggigiorno non si può fare a meno, a livello ricreativo piuttosto che commerciale, il ‘motore di ricerca’ ne è una costola permettendo all’utente di ottenere le informazioni che cerca in pochi istanti (intento di ricerca). Tramite un motore di ricerca (“search engine”) è possibile analizzare una vasta quantità di dati restituendo contenuti correlati.

Con questo articolo intendiamo definire i principi che stanno alla base del funzionamento di un motore di ricerca.

Benché questa entità sia costituita da più elementi, si possono individuare dei punti cardine su cui poggia:

Scheduler: prende in carico quando il/i crawler deve attivarsi per il download di una risorsa relativa all’URL passato;

Spider (anche detto crawler o robot): costituisce il Corpus (archivio di documenti), loopando i dati da ogni indirizzo url passati al fine di sviluppare un elenco di pagine web , raccogliere le informazioni presenti e memorizzarle in determinati records;

Indexer: processa i dati raccolti dallo spider, al fine di ottenere indici e metadati che potrebbero tornare utili per snellire la fase di ricerca:

Parser: estrae ogni singola risorsa memorizzata nel repository e, dopo averne letto i contenuti, li suddivide a seconda della tipologia. Qualora l’unità presa in esame contenga a sua volta degli url questi verranno inviati nuovamente al repository. I dati che sono stati catalogati vengono a loro volta etichettati e risulteranno più determinanti per permettere al motore di ricerca di offrire le informazioni più rilevanti;

Query Processor: definito anche Search Engine Software, accetta richieste e fornisce risposte; determina i risultati in base ala loro rilevanza sulla query.

La natura dei motori di ricerca è in continua evoluzione per venire incontro alle esigenze degli utenti con le loro richieste, è un mondo in continua evoluzione: pertanto, a fronte dei repentini cambiamenti è necessario prendere coscienza che occorre essere aggiornati e attenti alle mutazioni del mercato.

Il rapporto tra SEO e Web Marketing

Cosa accomuna due parole, una che oramai risuona facilmente ha a che fare con il settore web e il (web) marketing qualcosa ?

SEO e Web Marketing due termini sempre più strettamente in relazione tra loro oggigiorno che stanno prendendo sempre più piede sul mercato e più specificamente parlando di siti e commercio, e che sono interdipendenti.

Del primo fino a qualche anno fa la definizione ideale sarebbe stata ‘l’insieme delle attività atte a migliorare il posizionamento di un sito/pagina su Google’.

Mentre “Web Markerting” indica ‘un processo che ha come fine quello di favorire l’incontro fra domanda e offerta, di beni o servizi’. Ora veniamo alla parolina ‘Web’: l’accostamento fa sì che, se pubblicità e rapporti commerciali sono i mezzi tramite cui si realizza il marketing (‘tu vai a cercare il cliente’), viene letteralmente ribaltato il significato della parola: ora diviene “qualcuno che ti cerca“, sì che non devi più correre dietro ai potenziali acquirenti per attrarli verso le tue offerte, non più dunque sottostare ‘ai suoi umori’ poiché ora è lui che vuole ciò che tu vendi.

Tornando invece alla definizione primaria, bisogna operare alcune sostituzioni etimologiche: non più “posizionamento” ma “visibilità” in virtù della potenza che oggi l’aggiunta dei rich snippet e di altri tag (title, meta description) realizza un significativo gap in termini di visibilità del progetto/prodotto; “contenuto” al posto di “pagine” dal momento che oggi si posizionano sui motori anche singoli contenuti e non solo pagine (ad es. i video).  Attualmente “Google” andrebbe sostituito con “motori di ricerca“: Google rimane sempre il numero 1 in diversi paesi, ma non ovunque (si pensi ad esempio  alla Cina e alla Russia). 

Verosimilmente, il sito può essere allora pensato come ad un imbuto (tecnicamente, “funnel“): da una parte entrano gli utenti ‘alla ricerca’, dall’altra escono le “conversioni“, ciò che noi vogliamo l’utente faccia (una richiesta di contatto, la compilazione di un modulo, fino alla vendita).

da questo punto di vista è quindi accogliere il visitatore, facendolo atterrare sulla pagina del proprio sito e a proprio agio, e potergli fornire la miglior risposta possibile per ciò che cerca, con l’auspicio che compia l’azione finale, determinante.

‘Il Crawler’, questo sconosciuto

(sabato 24 novembre)

Attività metodologiche di un crawler
Attività metodologiche di un crawler

Con il termine “crawler” (chiamato anche ‘web crawler‘, spider o robot) si intende un qualsiasi programma che può essere utilizzato per l’individuazione (cioè “verificare la presenza in Rete”) e la scansione automatiche dei siti web, compresi eventuali link che rimandano ad altre pagine web. Ogni motore di ricerca ne ha di suoi specifici: ad esempio, il crawler principale di Google è Googlebot.

Il loro utilizzo è definito nella parte descrittiva nel file robots.txt, il quale può prevedere diversi crawler. Inoltre, possono essere specificati anche dal meta tag robots o nelle istruzioni HTTP X-Robots-Tag.

Definizione Web Crawler
Definizione Web Crawler

 

 

Google bot
Google bot

 

Crawler Token dello user-agent (utilizzato nel file robots.txt) Stringa completa dello user-agent (come mostrata nei file di log del sito web)
APIs-Google
  • APIs-Google
APIs-Google (+https://developers.google.com/webmasters/APIs-Google.html)
AdSense
  • Mediapartners-Google
Mediapartners-Google
AdsBot Mobile Web Android 

(Controlla la qualità dell’annuncio nella pagina web Android)

  • AdsBot-Google-Mobile
Mozilla/5.0 (Linux; Android 5.0; SM-G920A) AppleWebKit (KHTML, like Gecko) Chrome Mobile Safari (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot Mobile Web 

(Controlla la qualità dell’annuncio nella pagina web dell’iPhone)

  • AdsBot-Google-Mobile
Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1 (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot 

(Controlla la qualità dell’annuncio nella pagina web per desktop)

  • AdsBot-Google
AdsBot-Google (+http://www.google.com/adsbot.html)
Googlebot Immagini
  • Googlebot-Image
  • Googlebot
Googlebot-Image/1.0
Googlebot News
  • Googlebot-News
  • Googlebot
Googlebot-News
Googlebot Video
  • Googlebot-Video
  • Googlebot
Googlebot-Video/1.0
Googlebot 

(Desktop)

  • Googlebot
  • Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
  • Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36o (utilizzato raramente):
     
  • Googlebot/2.1 (+http://www.google.com/bot.html)
Googlebot 

(Smartphone)

  • Googlebot
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Mobile AdSense
  • Mediapartners-Google
(Vari tipi di dispositivi mobili) (compatible; Mediapartners-Google/2.1+http://www.google.com/bot.html)
Mobile Apps Android 

(Controlla la qualità dell’annuncio nella pagina per app Android. segue le regole dei robot AdsBot-Google.)

  • AdsBot-Google-Mobile-Apps
AdsBot-Google-Mobile-Ap

I crawler più comuni di Google

 

Un crawler è un tipo di bot (programma o script che automatizza delle operazioni), e i crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale per ciò si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata). Durante l’analisi di un URL, lo spider identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare.
Il comportamento dei crawler attivi in Rete è tracciato da quanto definito nel file robots.txt, individuabile nella root del sito. 

Esistono anche crawler open source. In particolare, è definito nella riga ‘User-agent‘ mediante una stringa di testo (“token“).

 

Per capire come si svolge veramente un’attività di SEO e quindi come funziona l’algoritmo di Google, occorre conoscere e capire come funzionano le due “menti” operative di GoogleBot, ovvero lo spider ed il crawler.
Spider
L’attività principale dello spider è di farsi una copia del codice html delle pagine di un sito web, suddividerlo in parti, quindi procedere a farne il controllo spam, salvare un estratto dei contenuti nell’Index ed in alcuni casi inviare una immagine (copia) della pagina alla cache. Per sapere come trovare la copia cache delle proprie pagine ecco un post sui comandi avanzati.

Crawler
La funzione del Crawler è analizzare e seguire i link forniti dallo spider nella sua attività di scansione delle pagine. Tutti i link seguiti dal crawler sono analizzati in profondità in base ad una serie di parametri (anchor text, proprietario del dominio, whois etc.) che permettono a Google di capire il valore SEO reale di ogni link e quindi eventuali penalty. Se il crawler trova nuove pagine non presenti nell’indice dello spider, li comunica allo spider stesso che ricomincia la scansione e indicizzazione.

 

In una accezione secondaria, il termine web crawler viene utilizzato anche per indicare programmi (come PageNest, MSIECrawler, Offline Explorer) concepiti per scaricare il contenuto di un intero sito web sul disco fisso del computer.

“Polimorfi” tacciati da Memory Alpha in quanto, accedendo al sito in modo aggressivo, implicano un rallentamento drastico delle possibilità di accesso al sito stesso da parte dei visitatori.

 

2019: la SEO che sarà

(martedì 6 novembre)

Già il secondo semestre del 2018, disseminato di novità inerenti la parte algoritmica e tendenze di ricerca sempre più dettagliate, ha gettato le basi per quelli che saranno i trend della SEO nel 2019.

La chiave per essere all’avanguardia nel settore della SEO è prevedere i futuri sviluppi con un occhio di riguardo alle mosse di Google. E quindi

  • USER EXPERIENCE

Già dal 2015 con l’algoritmo RankBrain, nato e sviluppato sull’onda del coetaneo e predecessore Hummingbird

, si è fatto un determinante passo in avanti nell’ottica di avere risultati sempre più mirati e soddisfacenti per quelli che sono gli intenti di ricerca dell’utente. Ciò a tutto vantaggio della user experience (o UX) si intende l’esperienza che un utente prova quando interagisce con un qualsiasi prodotto, sistema o servizio, di design, che sia fisico o digitale”.

                  

  1. MOBILE FIRST

L’inversione di tendenza registrata da inizio 2018 a proposito delle ricerche online appannaggio dei dispositivi mobile (60% con punte addirittura del 90% in alcun nicchie) è stato l’impulso per quello che è noto come ‘Mobile First’, cioè la realizzazione di un sito web partendo da quella che è la risoluzione di un dispositivo mobile adattandosi via via alle risoluzioni maggiori, rimanendo fedele cioé al progetto iniziale ma capovolgendo il concetto di Responsive Web Design.

 

  1. CONTENUTI VIDEO

Partendo da un’intuizione brillante ma fondata, un elemento destinato a fare la differenza sarà quello di incentivare l’utilizzo di contenuti video e multimediali, in armonia con una giusta combinazione con i testi.

 

  1. RICERCA VOCALE

Correlata alla importante crescita fatta registrare dal settore mobile è quella delle ricerche vocali. Non più intesa come ricerca di un numero di telefono da chiamare o per comunicare keywords, l’intento che si insegue è di dare comandi attraverso la voce consentendo così di risparmiare tempo (si pensi ad esempio quando si hanno le mai occupate).

 

  1. FEATURED SNIPPET

Effettuando una qualsiasi ricerca su Google per una parola chiave popolare oltre ai canonici risultati organici e a pagamento potrebbero essere mostrati, nella parte superiore della pagina, delle porzioni di altre pagine web che vengono richiamate con lo scopo di dare una risposta diretta alla query. Non essendo a pagamento, l’unico modo per far apparire il featured snippet è ottimizzare il sito.

 

  1. OTTIMIZZAZIONE CONTENUTI E SEO ON-PAGE

I focus finora illustrati non devono però mettere in secondo piano l’ottimizzazione on-page e la qualità dei contenuti, dal caricamento delle pagine all’ottimizzazione dei (meta)tag di una pagina all’evitare contenuti duplicati …

(Rif. www.progettofirenze.com/blog)

 

Col nuovo anno dunque la Seo sarà particolarmente incentrata sull’esperienza utente da mobile e sui contenuti di valore, oltre che su link e menzioni.

Entrando più nel tecnico, non si può non denotare che l’annata in corso ha portato alla ribalta il passaggio al protocollo per la comunicazione sicura “HTTPS” in sostituzione del vecchio “HTTP” (in realtà ancora largamente usato) e il sistema “AMP” (Accelerated Mobile Pages, in verità lanciato già da circa tre anni) “spinto” per velocizzare il caricamento delle pagine su dispositivi mobile.

 

Oltre a questi parametri, dovremo continuare a focalizzare la nostra attenzione innanzitutto su contenuti di alta qualità, sulla lunghezza dei testi, su un equo utilizzo delle keyword, dei link interni e dei vari h2 … h6, sull’uso di una adeguata meta descrizione (da molti ormai reputata secondaria, ma invece talvolta di importanza strategica) e di un valido indirizzo URL, sulla valorizzazione di video e fotografie all’interno delle pagine e, naturalmente, sul confronto continuo con altre realtà concorrenti e sulle intuizioni personali in modo da riuscire ad anticipare proprio la diretta concorrenza.

 

Accanto alla Search Engine Optimization, parlando di segnali di evoluzione non va dimenticato il Content Marketing (“Content is the King”), uno dei pilastri del Web Marketing e che procede di pari passo con la realizzazione di siti web in quanto entrambe le attività sono ‘rincorse” al fine di  fornire ai visitatori ciò di cui hanno bisogno, nella forma migliore possibile.

Se è innegabile che  gran parte delle chiavi di ricerca secche a intento commerciale siano ‘in mano’ ai colossi internazionali (eBay, Amazon, ecc.), diversamente avviene per le ricerche di tipo informativo, alle quali ognuno può rispondere con contenuti approfonditi ed esaustivi per guadagnare la fiducia del proprio pubblico. Le ricerche informative infatti possono nascondere intenti di acquisto utili per i propri scopi commerciali.

Soddisfare query informazionali nasconde la possibilità di diventare autorevoli punti di riferimento per le persone che avranno bisogno di prodotti e/o servizi per rispondere ad esigenze simili. Necessità alle quali si può rispondere offrendo articoli per il blog, ebook, video guide, infografiche.

Investire sul Content Marketing significa puntare sulla costruzione di autorevolezza agli occhi del proprio pubblico attraverso la realizzazione di contenuti realmente utili, originali e di valore. La produzione di contenuti è un processo di costruzione di credibilità e valore che permane nel tempo e che si auto-alimenta per mezzo della continua crescita di notorietà del brand.

 

 

 

SEO Audit: cos’è e come si fa

(sabato 3 novembre)

SEO Audit: cos’è e come si fa

 Ecco, un lavoro ci è stato commissionato: la ditta X ci incarica di realizzare un sito per la sua attività … Bene, come da ABC procediamo anzitutto ad un colloquio dettagliato nel quale “capire” il segmento dove lavora, il target di clienti che vuole raggiungere, che finalità ha il sito …..

Dopo una prima elaborazione del progetto web e (gli inevitabili) doverosi successivi aggiustamenti da apportare su richiesta del cliente, la “creatura” è pronta per essere data in pasto al mare magnum di Internet e ai motori di ricerca, con l’obbiettivo di ottenere un buon posizionamento in SERP, sapendo di contare su un sito ottimizzato dal nostro collega.

Già, ma come ogni cosa su questo mondo ‘tutto è relativo’, anche il nostro buon lavoro !

 

Ecco allora che il lavoro del SEO non si ferma al ‘confezionamento’ del sito web con tutti i dogmi richiesti per l’ottimizzazione SEO ma occorre monitorare costantemente quanto fatto: questo è fare SEO AUDIT.

Si tratta di uno step indispensabile per ottenere un buon risultato … da piazzare, e oltretutto necessario nel condurre un’attività SEO. Consiste in una analisi strutturale, dei contenuti e concorrenziale del sito web, andando così ad analizzare tutti gli aspetti – interni ed esterni – che potrebbero influenzare il posizionamento sui motori di ricerca.

Con questa attività è così possibile individuare i punti di forza e di debolezza del sito, e di conseguenza apportare le dovute correzioni con un’opportuna serie di attività SEO al fine di massimizzare il risultato.

Non esiste un’unica strada per perseguire un’analisi di SEO audit anzi, al contrario ognuno avrò una checklist personale.

Questo significa che ognuno di noi avrà una personale checklist per quanto riguarda l’audit SEO di un sito web. Quella che segue è la mia personale lista, spero tu possa trarne qualche spunto interessante. Per prima cosa va detto che la mia analisi SEO è articolata in questo modo:

  • Analizzo il settore.
  • Passo gli aspetti on site.
  • Affronto i punti off site.

Analisi del settore

La prima operazione: fare un’analisi del settore. E’ importante capire chi sono i principali competitor, quali contenuti offrono, come sono strutturati e quali sono i punti di forza.

Cerco di individuare le keyword più importanti del settore e faccio delle ricerche per scoprire i siti che si posizionano, in modo ricorrente, ai primi posti dei motori di ricerca.

Questa sezione è utile per individuare, velocemente, i siti che hanno pagine posizionate per le parole chiave che ci interessano sul serio.

Una volta individuati i competitor passiamo alla parte più importante: analizzare i siti. Questo lavoro va fatto manualmente.

L’obiettivo è quello di capire cosa offrono, in termini di servizi/prodotti/contenuti, i principali competitor. Un buon metodo è di effettuare un’analisi a mano, visitando i siti e annotando gli aspetti rilevanti di ognuno.

Raccolgo i numeri in un file Excel per poi fare delle stime medie; mi interessa individuare quelle che sono i “servizi aggiuntivi” che possono essere inseriti nel settore. Ad esempio, tramite di esso potrei accorgermi che tutti i principali competitor offrono un servizio di informazioni H24 attraverso un numero verde, o magari che nei contenuti più importanti hanno deciso di includere dei video.

Insomma, questa fase preliminare mi permette di avere una panoramica del contesto e di quello che fanno i concorrenti che Google premia, posizionandoli meglio nelle serp di riferimento.

Analisi degli aspetti on site

Mi pongo dinanzi al sito con l’obbiettivo di analizzarlo, mettendomi nei panni dell’ utente standard. Mi pongo una serie di domande cercando di rispondere agli aspetti informazionali, legati all’usabilità e alla fiducia del sito (Il sito è facilmente navigabile ? Capisco subito cosa offre ? Il caricamento avviene in tempi accettabili ? I contenuti soddisfano le mie esigenze ?). Interessa capire se l’utente è messo nelle condizioni di poter trovare quello che cerca.

Il secondo passo è quello di analizzare il file robots.txt per controllare se i motori di ricerca hanno accesso a tutte le pagine che devono essere indicizzate o, viceversa, escluse.

A questo punto, individuati i punti deboli del sito posso procedere con l’analisi attraverso i SEO tool (Search Console, Visual SEO Studio, Seo PowerSuite, Seozoom, Google Analytics). 

 

 

Analisi off site

Per analisi off-site si intende l’insieme dei fattori che sono esterni al sito (link, citazioni, ecc.). In questa fase diventano importantissimi gli strumenti di analisi; fra questi, di indubbia utilità sono:

  • Ahrefs: per fare un’analisi approfondita dei link;
  • Buzzsumo: per analizzare la visibilità sui social network;

L’analisi dei fattori off site siamo consente di perfezionare la strategia SEO: valutare, ad esempio, le azioni per rafforzare una eventuale campagna di acquisizione link.

È il momento dell’analisi SEO del sito

La prima parte della SEO Audit è andata. Hai individuato i dati essenziali del contesto, usato i SEO tool per analizzare i competitor, concentrando l’attenzione su quanto è on site e quanto off site al sito. A questo punto siamo in gradi di determinare i fattori essenziali per la SEO Audit:

  • Abbiamo una panoramica della struttura del sito;
  • Siamo in grado di valutare la user experience;
  • Individuare possibili errori nel codice o nei meta tag;
  • Quali contenuti mancano al sito per poter essere competitivo.
  • Il sito presenta dei contenuti duplicati.
  • Presenza di contenuti che sono impossibili da indicizzare per Google.
  • Cosa manca, dal punto di vista dei link, per poter massimizzare la visibilità sui motori.

Tutte queste informazioni, insieme all’analisi preliminare dei competitor, ci permettono di sviluppare la nostra analisi SEO. Si può ora andare ad elaborare un PDF in cui inserire tutti i dati raccolti in tabelle. In questo ci può essere molto utile Excel, altrimenti ci sono le mappe mentali.

Meglio i SEO tool o un lavoro manuale ?

Parlando di analisi SEO sarebbe ipocrita non sottolineare l’importanza dei tools, i quali assumono un ruolo non indifferente nell’attività e consentono di accedere velocemente a informazioni preziose.

Ma sarebbe corretto però affermare che i tool “sono tutto” in quanto è buona prassi comunque navigare il sito e esplorarlo per comprenderne le sue dinamiche.

Il filo conduttore è che se il sito non è pensato per soddisfare la search intent degli utenti non andrà lontano: se il sito non è semplice da navigare, se i contenuti non sono organizzati nel modo giusto o non sono presenti le informazioni di cui gli utenti necessitano, nessuno acquisterà mai il prodotto/servizio.

 

 

Il PageRank cede il passo al Domain Authority

(sabato 27 ottobre)

PageRank come strumento di indicizzazione

Sostanzialmente, l’indicizzazione di un sito web o blog si fonda sulla rilevanza che esso ha nel World Wide Web (quanto cioè  importante è a livello di contenuti per l’argomento trattato), vale a dire quanto è “reso forte” (in ottica link building) da altri documenti, pertanto dalla sua bontà.


Il PageRank, brevetto di proprietà Google, fino a una manciata d’anni fa di efficacia indiscutibile in termini SEO, è definito da un algoritmo mediante cui viene assegnato un valore numerico ad ogni collegamento (hyperlink) presente nel documento stesso, con il fine di misurarne l’importanza. È un valore che può variare da 0 a 10 che Google assegna ad ogni pagina Web per valutarne il livello di popolarità.

 

 

L’algoritmo calcola la probabilità che quella pagina venga visitata, che cioè una persona clicchi su un link che faccia atterrare su di essa.

 

Introdotto da Larry Page e Sergey Brin, fondatori di Google, da cui ereditò il nome di PageRank, il primo passo fu la definizione di un algoritmo di analisi che assegnasse un valore numerico ad ognuna delle pagine web di un sito con l’obiettivo finale di qualificarne l’importanza e il valore dello stesso.

Un pò di storia del PageRank

Larry Page e Sergey Brin nel 1998

Nell’epoca in cui i due si incontrarono, la maggior parte dei motori di ricerca esistenti basavano i loro risultati sulla Keyword Density, ovvero quante volte una determinata parola chiave o frase veniva ripetuta all’interno di un contenuto.

Il valore di PageRank risulta da un algoritmo matematico basato sul grafo dei collegamenti del Web, formato da tutte le pagine (nodi) e collegamenti (archi) che formano il web.

 

Interessante la definizione ‘Il valore di PageRank risulta da un algoritmo matematico basato sul grafo dei collegamenti del Web, formato da tutte le pagine (nodi) e collegamenti (archi) che formano il web. Misura l’importanza di una particolare pagina. Un link verso una pagina conta come un voto di supporto. Il PageRank di una pagina dipende a sua volta dal valore PR delle pagine che linkano ad essa. Una pagina linkata da altre pagine ad alto PageRank riceverà a sua volta un alto PageRank.‘ (rif.: www.evemilano.com)

Col passare del tempo- e il succedersi di modelli sempre più sofisticati si è cercato di evolvere verso algoritmi sempre più precisi, con il fine di ignorare link artificiosi, non naturali e creati con l’unico scopo di alterare il PageRank.
   

 

 

Con questa metrica Google si è distinto ‘organicamente’ dagli altri motori di ricerca.

 

Negli ultimi 10 anni, però, il succedersi di modifiche sempre più frequenti ha fatto sì che il PageRank non avesse più un ruolo di predominanza verso altri algoritmi di ranking.

In effetti, il PageRank rappresenta solo quello che interessa davvero a un imprenditore deciso a mettersi sul web: fare più soldi, attirare più lettori, generare più contatti, eccetera. Il PR viene oltretutto aggiornato poche volte l’anno. L’essere ‘sorpassato’ non vuol dire però che viene accantonato totalmente: appare come una metrica di successo solo nel momento in cui è alto, sinonimo di un sito posizionato: maggior traffico in ingresso vuol dire che più persone fanno quello che si vuole attraverso le mie pagine. Ha un significato fine a se stesso.

Si può dire che l’evoluzione del PageRank è andata di pari passo con l’evolversi del motore di ricerca di Google: vale a dire, mentre si assisteva a una progressiva diversificazione delle SERP, in ragione del succedersi delle logiche che stanno a monte, e dello ‘stravolgimento’ dei piazzamenti, l’indicizzazione non poteva più essere imputabile, riferita ad un unico parametro; si aggiunga che per confrontare fra di loro i diversi siti inoltre ogni query esigeva risposte viavia più complesse.

Ecco che con il passare degli anni, per allinearsi alle mutevoli esigenze anche Google iniziò ad evolvere i propri algoritmi sulla base di esigenze sempre più definite e specifiche.
Addirittura, “Sfuggire il PageRank” divenne necessità primaria per un motore di ricerca che volesse emergere sugli altri.

Google ha sempre indicato la rilevanza come uno degli ingredienti principali per posizionarsi nelle SERP. Ma solo perché è qualcosa di facile da tracciare non significa che rappresenta esattamente quello che succede al tuo sito web: guardare al PageRank come ad una metrica di successo ha senso solo nel momento in cui più è alto e meglio il mio sito è posizionato, più traffico riceve, e più persone fanno quello che voglio che facciano sulle mie pagine.

 

 

L’orientamento è ora quello di prendere in considerazione metriche legate ai guadagni del proprio sito o del business, piuttosto che focalizzarsi su quelle legate al ranking. Considera metriche che si aggiornano quotidianamente o settimanalmente, piuttosto che numeri (tasso di conversione, frequenza di rimbalzo, percentuale di click), tendendo cioè a metriche più legate alle performance e al ritorno economico (rif: blog.tagliaerbe.com).

Nella primavera del 2016 Google ha decretato la fine del Pagerank, ‘coefficiente’ fino ad allora utilizzato dal motore di ricerca di Google per determinare l’indicizzazione. (rif.: www.atopway.it).

‘il rilievo che ogni pagina web assume all’interno di una rete ipertestuale, determinava la sua reputazione’.

Da PageRank a Domain Authority

Domain Authority (“DA”) è ad oggi un parametro fra i più ricorrenti per valutare affidabilità e autorevolezza di un sito web. E’ un punteggio di ranking dei motori di ricerca sviluppato da Moz che prevede quanto un sito si classificherà nelle pagine dei risultati dei motori di ricerca (SERP).

L’Autorità di dominio viene calcolata valutando più fattori, incluso il collegamento dei domini radice e il numero di collegamenti totali, in un singolo punteggio DA. Questo punteggio può quindi essere utilizzato quando si confrontano siti Web o si monitora la “forza di ranking” di un sito web nel tempo.
Sviluppata da Moz, è una metrica utilizzata per valutare l’importanza di un dominio.

 Si basa su una scala di valori da 0 a 100  , dove un valore più alto sta ad indicare che il sito è importante, con buona autorevolezza e con una buona reputazione di link building; viceversa, per valori bassi. Fisiologicamente, è attendibile posizionarsi ovvero oscillare su numeri bassi mentre più difficile è “spingere” a valori più elevati.
Senza scendere nei dettagli, viene calcolata sulla base di tre fattori: dimensione (numero di articoli/contenuti pubblicati: più è alto il numero maggiore è la dimensione), popolarità (frequenza dei link di qualità – tali sono se provenienti da siti ben posizionati dunque già con un DA alto) ed età (da quanti anni è on line: più è vecchio più è affidabile) del sito/blog.

 

 

E’ possibile visualizzare il DA di un sito web usando MozBar (un’estensione di Chrome gratuita), Link Explorer (uno strumento di analisi di backlink), la sezione Analisi SERP di Keyword Explorer e decine di altri strumenti SEO in tutto il web. Per valutare questa metrica si può ricorrere a strumenti SEO a pagamento, ma esistono anche soluzioni free messe a disposizione da Moz.
Il suo valore aumenta migliorando la SEO sul sito, on-site come pure off-site.

Indicizzazione e ottimizzazione

(mercoledì 24 ottobre)

L’approccio con il mondo della SEO implica spesso, soprattutto per i neofiti, un utilizzo errato di terminologie; fra queste, penso sia diffusa la confusione che si viene a creare parlando di ‘indicizzazione’ e ‘ottimizzazione’.

Con il termine “indicizzazione” si intende semplicemente l’inserimento di un sito o un blog in un motore di ricerca. In ciò differisce dal ricorrente e più “sulla bocca” processo di ottimizzazione, il quale riguarda l’insieme delle attività finalizzate a migliorare la visibilità del sito/blog sui motori di ricerca.
Processo che si realizza attraverso tre step:
-segnalazione sito al motore di ricerca;
-creazione e inserimento del file sitemap.xml
– essere citati da altre fonti (essere citati o meglio linkati da altri siti web è spesso considerato come sinonimo di qualità e/o interesse)

L’indicizzazione di un sito internet è la fase in cui il motore di ricerca raccoglie, analizza ed archivia i dati per facilitare la rapida e accurata ricerca di informazioni

 

Se un sito non viene indicizzato, non può comparire nei risultati di ricerca. L’indicizzazione di siti internet viene effettuata in maniera automatica dal motore stesso, tramite particolari programmi chiamati spider (“ragni”), che entrano in un sito e ne leggono il codice sorgente.[/caption]

 

Lindicizzazione SEO è un processo, quindi un insieme di azioni, che ha come unico obiettivo quello di raccogliere le informazioni relative ad una certa pagina web e renderle disponibili nel database del motore di ricerca.

 

Interessante notare che quando un utente effettua una ricerca su Google, quest’ultimo deve interpretare il suo bisogno intrinseco nella ricerca, capire quale tra i tanti siti internet che compongono la rete risponda meglio al suo bisogno e restituire una lista di siti che soddisfino al meglio la richiesta dell’utente “intento di ricerca” (questa operazione deve avvenire in pochi istanti: è per questo che il motore deve avere già memorizzate al proprio interno il maggior numero possibile di info sulle pagine, pena l’esclusione della stessa/e dall’attività di ricerca).

Terminata l’attività di registrazione del sito, i motori di ricerca scansionano periodicamente i siti presenti nel proprio db per verificare eventuali aggiornamenti ricorrendo al servizio add-url (segnala un sito al motore di ricerca): tramite particolari programmi chiamati spider (letteralmente “ragni”, nel senso che essi attraversano la “ragnatela” di collegamenti eletto stereotipo con cui si raffigura simbolicamente il web), entrano in un sito e ne incominciano a leggere il markup HTML, alla ricerca di eventuali modifiche del contenuto o della struttura; procedendo in cascata, se trova un link a un’altra pagina del sito o ad un altro sito, analizza anche quest’ultimo di conseguenza.

Dopo aver scansionato la rete e quindi indicizzato (nel senso di raggruppato) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’analisi delle parole chiave contenute. In questo modo i motori di ricerca, tramite gli algoritmi, assicurano ai loro utenti contenuti validi e aggiornati. 

Quando il motore di ricerca termina di scansionare i siti già presenti in archivio passa a scansionare tutti i siti proposti nel motori di ricerca. Questo sistema è oramai obsoleto: è preferibile fare uso di strumenti più moderni per monitorare il proprio sito, come ad esempio la Search Console di Google.

Da notare che il sito non viene indicizzato se nel codice sorgente sono presenti determinate istruzioni (ad esempio come <meta name=”robots” content=”noindex”> oppure <meta name=”robots” content=”noimageindex”>); se invece non è specificato nulla a riguardo, viene indicizzato l’intero contenuto della pagina Web.

A questo punto, scansionata la rete e indicizzata (cioè raggruppata) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’apprezzamento delle parole chiave trovate al suo interno e alla “fedeltà” e attendibilità dei contenuti (ciò avviene in base alla logica dell’algoritmo utilizzato dal motore di ricerca). 

Avere un sito indicizzato su Google piuttosto che Bing o Flickr significa che le URL che lo compongono sono state inserite nella banca dati del motore di ricerca, e conseguentemente quando l’utente eseguirà una ricerca lo stesso comparirà nella SERP (lista dei risultati che vengono trovati). Quando si parla di indicizzazione è sempre meglio parlare in termini di singoli url e non del sito nella sua integrità: non è infatti detto le sue pagine (che possono essere anche svariate, ognuna delle quali  contraddistinta da un preciso “url”)  siano presenti nell’indice del motore di ricerca: alcune possono essere duplicate, altre possono finire nell’indice secondario di Google, altre possono risultare ignare perchè non essere ancora scansionate dallo spider.

Se le attività che riguardano l’indicizzazione sono eseguite automaticamente dal motore di ricerca, quelle di ottimizzazione (attività di SEO – Search Engine Optimization) vengono svolte dalle persone, con la finalità di incrementare il posizionamento organico (cioè non a pagamento) di un sito nei risultati dei motori di ricerca, con l’obiettivo di far apparire il proprio sito in cima alle liste di risultati.

Quindi indicizzazione e posizionamento sono due processi molto differenti tra loro. Il primo ha come unica finalità quella di inserire un sito o una pagina web nel database del motore di ricerca; il secondo invece, mediante opportune strategie web e di Inbound Marketing * mira a portare un determinato sito nelle primissime posizioni dei risultati organici di Google.

In principio era Responsive Design, ora spazio al Mobile First

(martedì 16 ottobre)

Se, dati Auditel alla mano, il presagio era già nell’aria almeno sette anni fa con la “rivoluzione” del Responsive Web Design, nel 2015 Google ha reso noto che, per la prima volta, il numero di ricerche effettuate da dispositivi mobili risultava maggiore di quelle da computer fissi. 

Dal 2017 Google ha avviato l’indicizzazione Mobile-First per i risultati di ricerca.
Finora i sistemi di scansione, indicizzazione e classificazione dei siti da parte di Google erano pensati per la versione desktop del contenuto di una pagina, non considerando così le tendenze attualizzate.

Da circa due anni il traffico internet globale mobile ha superato decisamente quello desktop: moltissimi siti, soprattutto quelli che forniscono notizie/dati in tempo reale, registrano sempre più accessi da mobile, soddisfacendo in questo modo l’utente in mobilità, e, in misura sempre decrescente, da desktop.

Si è assistito in una decade al rapido passaggio attraverso due tecniche “antitetiche”: da ‘Responsive Web Design’ a ‘Mobile First Web Design’. Essere mobile first significa progettare e ottimizzare il percorso dell’utente da smartphone, prima che da desktop.

 

Il mercato online risponde a questa tendenza e prende in considerazione la realizzazione di siti web orientati ai dispositivi mobili. La tendenza ora è quella del Mobile First, cioè partire dalla progettazione su mobile per poi pensare alle risoluzioni più alte, quindi attuare un Responsive Design al contrario.
Se la primaria preoccupazione perciò era di progettare siti che fossero mobile friendly curandone il design e la User experience, ciò ha posto questioni anche per chi si occupa di digital marketing, portando in questo modo a pianificare una customer journey invertendo così il polo di partenza (ora unità mobile e non più desktop), partendo dal presupposto che la fetta più grossa dei visitatori del sito/blog/landing page arriverà da un dispositivo mobile.

Se l’imperativo rimane quello del ‘mobile friendly’ (cioè progettare e ottimizzare il percorso dell’utente da smartphone, prima che da desktop, tramite un design responsive in grado di adattarsi alla visualizzazione su dispositivi con schermi ridotti) in alcuni settori lo status quo è viceversa rimasto invariato: la misura più efficace per muoversi in questo senso è di analizzare la situazione che si sta osservando e conseguentemente adottare strategie basate sulle analisi oggettive.

Se l’approccio Mobile First si configura come una scelta strategica specifica, anche i principi cardine nel campo del web design di conseguenza subiscono dei cambiamenti: il dispositivo mobile viene prima di tutto sia per quanto riguarda la configurazione, sia per quanto riguarda l’usabilità e la performance.

Il Mobile First al posto del Desktop First dunque. Vengono prima create pagine ottimizzate per i dispositivi mobili, poi seguono successive estensioni dei siti per desktop.

Fino ad ora, web designer e programmatori si sono occupati per prima cosa della realizzazione di un sito web per il desktop, immaginando una varietà di funzioni, grafici e possibilità creative, pensate per un monitor grande e per una connessione dati veloce; soltanto in una seconda fase seguiva la pianificazione del sito web per i dispositivi mobili, considerati di conseguenza solo come un’appendice al sito principale.

L’approccio Mobile First ribalta questa visione del lavoro e stabilisce altre priorità. Nella progettazione di una strategia vengono definiti innanzitutto quelli che sono gli aspetti centrali della pagina. Ciò vale non solo per contenuti e foto, ma anche per tutte le funzioni importanti e i moduli. In questa fase della progettazione, il pensiero alla base consiste nel concentrarsi sull’essenziale.

approcciare il mobile first

L’approccio Mobile First in sintesi:

Limitato all’essenziale
La programmazione non richiede troppi sforzi
Performance massime su tutti i dispositivi mobili
Accesso veloce alle informazioni
Design adatto allo schermo dello smartphone
Non più immagini grandi e funzioni inutili
Riduzioni del codice sorgente
Pagine programmate direttamente in HTML (JavaScript non viene usato)

Fondamentale è pianificare una soluzione ottimale per questi dispositivi; solo successivamente verranno ottimizzate versioni per desktop e laptop secondo il principio del Progressive Enhancement. Spesso nella realizzazione della strategia ci si avvale delle cosiddette grid, cioè ad una riorganizzazione concettuale basata sulle griglie. Il passo successivo sarà quello della configurazione di una pagina graduabile a seconda delle dimensioni dello schermo, in modo da presentare i contenuti su tutti i dispositivi seguendo i principi del responsive web design (design responsivo).

Con l’approccio Mobile First chi progetta il sito e le sue funzionalità ha già da subito le idee chiare su quali saranno i contenuti primari e secondari del sito, quindi si adopererà per visualizzare gli elementi importanti nel migliore dei modi.

Sostanzialmente cambierà il modo in cui il più importante motore di ricerca, indicizza e attribuisce il ranking alle pagine del tuo sito. Finora la scoperta e l’ordinamento dei risultati di ricerca in serp avveniva sulla base dell’analisi delle pagine lato desktop, scansionate dal crawler di Google e anche l’attribuzione del ranking avveniva sulla base della versione desktop delle pagine del sito.
Ora invece, cambierà la scoperta e il posizionamento delle pagine, utilizzando la versione mobile delle stesse.

Questa tecnica di approccio si basa su tre parametri interdipendenti: design, contenuti e funnel di conversione che comporta la ottimizzazione di percorsi per chi è in mobilità.
Ora, per il design la progettazione del sito implica ora un’approccio mobile da adattare poi al desktop (contrariamente a prima), badando a non inficiare la velocità di caricamento del sito. Diversamente da una risoluzione desktop ricca di immagini e testi, per un sito ‘mobile first’ è necessario tener conto delle ridotte dimensioni dello schermo e conseguentemente un adattamento dei contenuti. Il funnel – “imbuto” – di conversione fa riferimento a una strategia di marketing per tracciare il percorso che porta l’utente da una leads alla generazione di una conversione.

Secondo questo approccio, non si parte, quindi, da un layout e  funzionalità concepiti per il desktop per poi adattarli al mobile; al contrario, si parte ora dal contesto dei dispositivi mobili per concentrarsi al meglio sui contenuti essenziali.

COME PREPARARSI AL MOBILE-FIRST INDEXING

In un mondo in cui gli utenti navigano sempre più proprio tramite un telefono, introdurre ufficialmente il mobile-first index significa che Google utilizzerà la versione mobile della pagina come la principale su cui effettuare la scansione, l’indicizzazione e la classificazione del contenuto. L’obiettivo di tale cambiamento è quello di permettere agli “utenti mobile” di trovare la migliore opzione disponibile in base a ciò che stanno cercando. Google continuerà ad avere un solo indice, ma nella fase di scansione darà principalmente su un’esperienza mobile.
Finora la scoperta e l’ordinamento dei risultati di ricerca in serp avveniva sulla base dell’analisi delle pagine lato desktop, crawlate per mezzo del bot desktop di Google e anche l’attribuzione del ranking avveniva sulla base della versione desktop delle pagine del sito.
Ora invece, cambierà la scoperta e il posizionamento delle pagine, utilizzando la versione mobile delle pagine.

Per tentare di ottenere buoni risultati in tal senso e fornire la migliore esperienza possibile a chi naviga sul web, webmaster e proprietari di siti web dovranno pertanto utilizzare le pagine ottimizzate per mobile, laddove presenti, come principale punto di riferimento per l’indicizzazione sul motore di ricerca. Ciò non vuol dire però che se un sito desktop è più rilevante per una determinata ricerca, lo si vedrà comunque classificato più in basso delle sue alternative mobili.

Fermo restando che oggi, quando si sviluppa il sito web, una landing page o un qualsiasi contenuto visuale, bisognerebbe tener sempre bene a mente il concetto di “mobile-first” , i siti che potrebbero maggiormente essere interessati da questa variazione nell’indexing sono quelli che utilizzano una versione separata per le loro versioni mobili. Parliamo dunque, degli “m-site” o mobile site con separate url. 

Contro possibili allarmismi, vale la pena notare che Google non sta implementando due indici di ricerca separati per desktop e mobile (come si vociferava tempo fa), ma che sta semplicemente passando dall’indicizzazione delle versioni desktop dei contenuti alle versioni mobile. Il cambiamento al momento non influisce sul ranking: ciò che cambia è il modo in cui i contenuti vengono raccolti, non come viene classificato il contenuto. I siti che non dispongono di una versione mobile continueranno ad essere indicizzati in base a quella desktop.

Google presenterà per primi nei risultati di ricerca i contenuti del sito mobile. Se i crawler non troveranno una versione mobile, sarà inserita nella SERP la versione desktop del contenuto. “Se hai solo un sito desktop, continueremo ad indicizzare il tuo sito desktop, anche se stiamo utilizzando un user agent mobile per visualizzare il tuo sito” – si afferma dal blog di Google. In sostanza, se il sito è responsive non ci dovrebbero essere grandi modifiche da programmare. Certamente Google classificherà i contenuti sulla base dei segnali di ranking e della scansione dei siti effettuata da una visualizzazione mobile. Dunque saranno privilegiati in ogni caso contenuti mobile friendly, come avviene da almeno un anno, rispetto a siti desktop che rendono difficile, in termini di User Experience, la navigazione.

Il Mobile First Index avrà rilevanza sul posizionamento dei contenuti e su tanti aspetti del Web Design e della SEO.

 

 

 

 

 

 

 

Per ottimizzare un sito per il Mobile si hanno 3 opzioni:

  1. responsive website (stesso codice, stesso url, set css che adatta il rendering della pagina alla risoluzione dello schermo);
  2. dynamic serving (stesse url, più template html&css che si adattano alla richiesta del device). Questa potrebbe essere una soluzione ideale nello switch al mobile-first indexing in quanto comporta una riduzione del peso di css e script che lato mobile è inutile avere;
  3. sito separato (url differenti, contenuti differenti, link esterni differenti).

Un sito responsive o che implementa il dynamic serving, non comporta particolari problemi. 

Se invece il sito usa un m.site per presentare i contenuti, gli unici implementazione necessaria  per  far comprendere a Google che si tratta dello stesso sito (seppur tecnicamente sono due, facendo perciò pensare a due indici distinti), sono le annotazioni nel codice che devono permettere di segnalare nella pagina desktop la versione mobile, inserendo:

<link rel=”alternate” media=”only screen and (max-width: 640px)”
 href=”http://m.example.com/page-1″>

e, al tempo stesso, di segnalare, nella rispettiva pagina mobile, il legame con quella desktop, mediante il rel “canonical”.

<link rel=”canonical” href=”http://www.example.com/page-1″>

Occhio al fatto che le annotazioni vanno inserite solo nell’html della pagina o nella sitemap.

Questa è “la base” delle implementazioni che un sito con versione separata per il mobile dovrebbe rispettare.