Panoramica sulla SEO

(venerdì 8 febbraio)

Quando eseguiamo una ricerca su un qualsiasi motore di ricerca – Google Chrome, Internet, Safari, .. – viene generata un elenco pressocché infinita di risultati “attinenti” che prende il nome di SERP (Search Engine Results Page, ovvero “Pagina dei Risultati del Motore di Ricerca“). Ma come si origina questa lista ? con che logica e in base a quali criteri viene stilata seppur automaticamente ?
E’ questa una delle sfaccettature del Web che probabilmente rimane seminascosta ai più, specie se non si è interessati ad un “posizionamento” del proprio progetto web.
Esiste una “nicchia” che s’interessa specificamente e studia la collocazione di un sito web nella lista dei risultati che ci appare a terminale: stiamo parlando della SEO (‘Search Engine Optimization’). Un problema che assume indubbiamente particolare rilevanza per chi, titolare di una attività, fa del proprio sito una vetrina per la vendita di prodotti e/o servizi.


Il concetto di SEO nasce attorno al 1995 quando venne introdotto un insieme di strategie con la finalità di ottenere il miglior posizionamento – “ranking” – per un sito; al’epoca vigeva il dominio incontrastato di Yahoo! quale motore di ricerca. L’avvento di Google verso la fine degli anni Novanta comportò uno stravolgimento sul campo e la crescente complessità degli algoritmi che ne sarebbe conseguita, insieme al miglioramento dei nuovi motori di ricerca, compromisero gli equilibri esistenti sul mercato. Google inoltre cominciò a lavorare e lavora attualmente all’aggiornamento del proprio algoritmo per renderlo sempre più efficace e dettagliato nei risultati.

Fare SEO (Search Engine Optimization) significa adottare tutto un insieme di tecniche, strategie e regole finalizzate a far avere al progetto web su cui si sta lavorando un risultato di visibilità in termini di SERP. Scienza per definizione astratta in quanto non si basa su risultati certi e determinabili in un arco temporale definito bensì in continua evoluzione (si pensi all’adozione di algoritmi di ricerca sempre più affinati e specifici per ottenere il meglio dei risultati).

Componenti essenziali per condurre una buona attività SEO

Un’attività SEO, opportunamente preceduta da una attività di studio del settore e di pianificazione della strategia, a prescindere dal tipo di progetto da trattare, poggia fondamentalmente su due pilastri, due modalità operative: si tratta dell’Ottimizzazione SEO On Page e dell’Ottimizzazione SEO Off Page. Ognuna delle due tecniche prevede la necessità di dover operare su diversi parametri (‘fattori’) o adottare idonee strategie. La prima, tassello fondamentale della SEO, concerne l’adozione di determinati accorgimenti/migliorie sulla struttura del sito stesso (codice), la seconda riguarda tutto quell’insieme di strumenti che danno opportunità di far conoscere all’esterno il proprio sito (es. ottenere dei backlink – il fattore più importante per ottenere il miglior posizionamento possibile -. Essi in particolare vengono interpretati da Google come dei ‘punti’: più punti ottiene, più il sito è importante più Google lo premia con le prime posizioni).

Se per definizione l’Ottimizzazione per i Motori di Ricerca fino a non più di due anni fa era incentrata sul concetto di keyword e nozioni ad esse correlate come densità e ricorrenza e dava valore pure all’enfatizzazione del testo (grassetto, corsivo, ecc.), sia pure con l’introduzione di alcuni accorgimenti (ad esempio “long tail“), negli ultimi anni proprio l’inconsistenza del fare affidamento solo su di esse per una ottimizzazione seo emerse l’esigenza di andare oltre all’analisi delle kw per provare a comprendere il significato “intrinseco” delle parole in virtù di un “web semantico” (le keywords non erano più sufficienti ad ottenere risultati di qualità), ovvero guardare ad una specializzazione delle ricerche cogliendo l’accezione del termine ricercato (il valore semantico), ha fatto sì che cambiassero i “pesi” in gioco. L’avvento della semantica ha cioè fatto sì che non fosse più sufficiente affidarsi semplicemente ad uno specifico ed adeguato utilizzo di keywords in un contenuto/pagina web per migliorarne la visibilità in termini di SERP. SEO oggi significa adottare delle semplici regole che consentono ai motori di ricerca di comprendere l’argomento trattato dal sito/pagina e ai visitatori di trovare ciò che cercano.

Approcciando alla SEO occorre inoltre tener distinti i concetti di “indicizzazione” e “posizionamento”, termini spesso confusi … Indicizzazione è un processo naturale conseguente all’indicizzazione del sito; posizionamento è l’attività in senso stretto di ottimizzazione, interna ed esterna, del sito al fine di migliorarne la visibilità in termini di “query”.

Al concetto di SEO si affiancano quelli di SEM e Web Marketing. Detto della prima (‘Search Engine Marketing ‘) l’insieme delle attività messe in atto da un professionista dei motori di ricerca allo scopo di migliorare il posizionamento delle pagine di un sito web sulle pagine dei risultati organici (anche detti risultati naturali)
risultanti dai motori di ricerca – cioè non riconducibili a ‘strumenti a pagamento’ -, come Adwords o Adsense, Web Marketing indica invece le azioni di carattere commerciali – attuate per incrementare la visibilità e la rintracciabilità di un sito web tramite i motori di ricerca.

Verso il Web Semantico: il Knowledge Graph

(lunedì 4 febbraio)

Con l’avvento degli ultimi algoritmi supportati dai motori di ricerca (Hummingbird e RankBrain su tutti) la tendenza del settore è stata quella di fornire all’utente risultati sempre più specifici e attinenti alle query sottoposte (intento di ricerca). E questo sarà uno dei trend del settore nel 2019.

“Knowledge Graph”, questo sconosciuto

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) fu fin dal principio quello di classificare le informazioni disponibili nel web secondo una serie di relazioni. Gran parte dei servizi tecnologici che utilizziamo poggiano su enormi grafi.

Tutto questo lo fa grazie alla ricerca semantica, mettendo in relazione la query effettuata dall’utente col suo intento di ricerca e le informazioni che potrebbero essere più interessanti.

Il primo cambiamento di Google è stato nell’adozione di un motore semantico che pertanto potesse essere in grado di rispondere alle nuove esigenze di ricerca: di qui il motore di ricerca assume un connotato di intelligenza artificiale.

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) è da sempre quello di classificare le informazioni disponibili nel web secondo una serie di relazioni.

Con il supporto del Knowledge Graph Google è stato in grado di semplificare le ricerche affinando la ricerca semantica in senso stretto.

Come appare in una ricerca un Knowledge Graph

Schematicamente, il Knowledge Graph si presenta come una scheda informativa a destra nella SERP dove poter trovare informazioni su personaggi, luoghi famosi, città, opere d’arte, film, avvenimenti, eccetera (in funzione della query posta)… il tutto senza esplorarne i risultati.

Il pregio di questa soluzione è di ottenere ‘risultati migliori‘ incrociando informazioni provenienti da diverse fonti con altre da siti autorevoli individuati dal motore di ricerca.

Google Duplex


Recentemente, nel maggio del 2018, durante l’annuale conferenza di casa Google per gli sviluppatori, è stata presentata quella che passerà come una novità assoluta per il settore: “Google Duplex”, applicazione di machine learning deputata  a fare il lavoro.

Analizzando Google Duplex, si possono cogliere alcune peculiarità fondamentali: per la tonalità della voce, la capacità di interagire e di condurre la conversazione, Google Duplex sembra praticamente umano. Si comporta come un automa, cioè dietro al programma non c’è nessuno che suggerisce le risposte. L’assistente vocale è indipendente e risponde in maniera dinamica alle interrogazioni; non ha preregistrata nessuna serie di risposte da utilizzare bensì per ciò si basa sul “web visibile”. Potendo contare su un elevato numero di pagine web fornite dal motore di ricerca, di volta in volta è in grado di passare contenuti rilevanti in base a quella che è la ricerca.

In breve, Google Duplex è stato “allenato” ad utilizzare il linguaggio umano partendo da un elevato numero di conversazioni.

Il concetto di machine learning (in cui rientra come detto Google Duplex, che è strettamente correlato a quello di intelligenza artificiale, tecnologie valide che che si contraddistinguono per il fatto di riuscire a processare una mole enorme di dati in maniera velocemente.

Google Knowledge Graph, uno step oltre la parola chiave

16 Maggio 2012, Google annuncia per la prima volta ufficialmente il lancio di un enorme Knowledge Graph.

Prima ancora che Google nascesse, la ricerca era legata all’utilizzo di parole chiave: infatti, la parte di ricerca faceva uso di un semplice matching di parole chiave. Ma le parole chiave non sempre bastano.

Nel momento in cui sottopongo un termine cioé non è dato sapere con quale accezione (in che contesto) debba essere inteso ! ed è proprio qui che interviene la potenzialità del ‘knowledge graph’.

Cosa vuol dire “Knowledge Graph”

Knowledge Graph cambia le cose. Il “graph” sviluppato da Google, infatti, rende il motore di ricerca un elemento più vicino agli utenti e consente di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive, città, edifici, personaggi storici, opere d’arte. Tutto direttamente all’interno del motore di ricerca. Vengono annullate le ambiguità. Ora è in grado di riconoscere la differenza tra le diverse accezioni del termine e può proporre da subito le risposte alle possibili query.

Mentre maturava l’idea del “grafo”, un ulteriore passo in avanti lo si è fatto nel 2005 quando è stato introdotto il nuovo algoritmo RankBrain mediante cui a fronte di una ricerca è possibile ottenere i migliori risultati possibili, ciò utilizzando quella che viene definita “Intelligenza Artificiale”. Mediante questa, grossi volumi di info e dati vengono trasformati in entità matematiche (“vettori“) comprensibili all’elaboratore.

WebP, un formato nuovo che nasce da una ‘genesi’

(giovedì 3 gennaio)

In risposta ad un mondo digitale sempre più esigente in tema di prestazioni e di velocità di caricamento delle pagine, i principali browser presenti sul mercato con le loro ultime versioni (Microsoft Edge, Mozilla Firefox e Windows 10, ultimo “convertito”) stanno adottando un nuovo formato standard per le immagini: WebP. Unico defezione alle adesioni al nuovo formato è Safari della Apple.

WebP è un formato “open” di compressione per le immagini da utilizzare specificamente in un ambiente web. Sua potenzialità è di ottimizzare il caricamento delle immagini sulle pagine web a discapito della qualità delle stesse.

Sviluppato da Google che l’ha presentato otto anni fa ed ereditato dai browser che ne discendono (esempio Opera) con l’intento di consentire una navigazione ancora più scorrevole dei siti web.

Con il formato audio/video con cui è correlato, si fonda sulla tecnologia di compressione video VP8.

Anche sw di grafica quali Picasa, IrfanView, XnView, ImageMagic e Gimp supportano di base questo formato.

Per poter gestire le immagini di questo formato su altri dispositivi oppure semplicemente al fine di poterle passare sul pc utilizzando un normale visualizzatore di immagini (invece di fare uso di un browser) il passaggio non è diretto: servirà cioè uno strumento di conversione delle stesse ai formati più diffusi.
Qualora si volesse rimanre fedeli ai formati tradzionali, rendendo cioé disponibili queste immagini su atri dispositivi __, è possibile convertirle
https://wizblog.it/come-convertire-le-immagini-webp-in-jpg-o-png

Componenti principali di un motore di ricerca

(30 dicembre)

Sappiamo tutti cosa sia un motore di ricerca ……, la sua funzione e il suo ruolo in tema di “ricerche”. Se Internet è uno strumento di cui oggigiorno non si può fare a meno, a livello ricreativo piuttosto che commerciale, il ‘motore di ricerca’ ne è una costola permettendo all’utente di ottenere le informazioni che cerca in pochi istanti (intento di ricerca). Tramite un motore di ricerca (“search engine”) è possibile analizzare una vasta quantità di dati restituendo contenuti correlati.

Con questo articolo intendiamo definire i principi che stanno alla base del funzionamento di un motore di ricerca.

Benché questa entità sia costituita da più elementi, si possono individuare dei punti cardine su cui poggia:

Scheduler: prende in carico quando il/i crawler deve attivarsi per il download di una risorsa relativa all’URL passato;

Spider (anche detto crawler o robot): costituisce il Corpus (archivio di documenti), loopando i dati da ogni indirizzo url passati al fine di sviluppare un elenco di pagine web , raccogliere le informazioni presenti e memorizzarle in determinati records;

Indexer: processa i dati raccolti dallo spider, al fine di ottenere indici e metadati che potrebbero tornare utili per snellire la fase di ricerca:

Parser: estrae ogni singola risorsa memorizzata nel repository e, dopo averne letto i contenuti, li suddivide a seconda della tipologia. Qualora l’unità presa in esame contenga a sua volta degli url questi verranno inviati nuovamente al repository. I dati che sono stati catalogati vengono a loro volta etichettati e risulteranno più determinanti per permettere al motore di ricerca di offrire le informazioni più rilevanti;

Query Processor: definito anche Search Engine Software, accetta richieste e fornisce risposte; determina i risultati in base ala loro rilevanza sulla query.

La natura dei motori di ricerca è in continua evoluzione per venire incontro alle esigenze degli utenti con le loro richieste, è un mondo in continua evoluzione: pertanto, a fronte dei repentini cambiamenti è necessario prendere coscienza che occorre essere aggiornati e attenti alle mutazioni del mercato.

Il rapporto tra SEO e Web Marketing

Cosa accomuna due parole, una che oramai risuona facilmente ha a che fare con il settore web e il (web) marketing qualcosa ?

SEO e Web Marketing due termini sempre più strettamente in relazione tra loro oggigiorno che stanno prendendo sempre più piede sul mercato e più specificamente parlando di siti e commercio, e che sono interdipendenti.

Del primo fino a qualche anno fa la definizione ideale sarebbe stata ‘l’insieme delle attività atte a migliorare il posizionamento di un sito/pagina su Google’.

Mentre “Web Markerting” indica ‘un processo che ha come fine quello di favorire l’incontro fra domanda e offerta, di beni o servizi’. Ora veniamo alla parolina ‘Web’: l’accostamento fa sì che, se pubblicità e rapporti commerciali sono i mezzi tramite cui si realizza il marketing (‘tu vai a cercare il cliente’), viene letteralmente ribaltato il significato della parola: ora diviene “qualcuno che ti cerca“, sì che non devi più correre dietro ai potenziali acquirenti per attrarli verso le tue offerte, non più dunque sottostare ‘ai suoi umori’ poiché ora è lui che vuole ciò che tu vendi.

Tornando invece alla definizione primaria, bisogna operare alcune sostituzioni etimologiche: non più “posizionamento” ma “visibilità” in virtù della potenza che oggi l’aggiunta dei rich snippet e di altri tag (title, meta description) realizza un significativo gap in termini di visibilità del progetto/prodotto; “contenuto” al posto di “pagine” dal momento che oggi si posizionano sui motori anche singoli contenuti e non solo pagine (ad es. i video).  Attualmente “Google” andrebbe sostituito con “motori di ricerca“: Google rimane sempre il numero 1 in diversi paesi, ma non ovunque (si pensi ad esempio  alla Cina e alla Russia). 

Verosimilmente, il sito può essere allora pensato come ad un imbuto (tecnicamente, “funnel“): da una parte entrano gli utenti ‘alla ricerca’, dall’altra escono le “conversioni“, ciò che noi vogliamo l’utente faccia (una richiesta di contatto, la compilazione di un modulo, fino alla vendita).

da questo punto di vista è quindi accogliere il visitatore, facendolo atterrare sulla pagina del proprio sito e a proprio agio, e potergli fornire la miglior risposta possibile per ciò che cerca, con l’auspicio che compia l’azione finale, determinante.

‘Il Crawler’, questo sconosciuto

(sabato 24 novembre)

Attività metodologiche di un crawler
Attività metodologiche di un crawler

Con il termine “crawler” (chiamato anche ‘web crawler‘, spider o robot) si intende un qualsiasi programma che può essere utilizzato per l’individuazione (cioè “verificare la presenza in Rete”) e la scansione automatiche dei siti web, compresi eventuali link che rimandano ad altre pagine web. Ogni motore di ricerca ne ha di suoi specifici: ad esempio, il crawler principale di Google è Googlebot.

Il loro utilizzo è definito nella parte descrittiva nel file robots.txt, il quale può prevedere diversi crawler. Inoltre, possono essere specificati anche dal meta tag robots o nelle istruzioni HTTP X-Robots-Tag.

Definizione Web Crawler
Definizione Web Crawler

 

 

Google bot
Google bot

 

Crawler Token dello user-agent (utilizzato nel file robots.txt) Stringa completa dello user-agent (come mostrata nei file di log del sito web)
APIs-Google
  • APIs-Google
APIs-Google (+https://developers.google.com/webmasters/APIs-Google.html)
AdSense
  • Mediapartners-Google
Mediapartners-Google
AdsBot Mobile Web Android 

(Controlla la qualità dell’annuncio nella pagina web Android)

  • AdsBot-Google-Mobile
Mozilla/5.0 (Linux; Android 5.0; SM-G920A) AppleWebKit (KHTML, like Gecko) Chrome Mobile Safari (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot Mobile Web 

(Controlla la qualità dell’annuncio nella pagina web dell’iPhone)

  • AdsBot-Google-Mobile
Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1 (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot 

(Controlla la qualità dell’annuncio nella pagina web per desktop)

  • AdsBot-Google
AdsBot-Google (+http://www.google.com/adsbot.html)
Googlebot Immagini
  • Googlebot-Image
  • Googlebot
Googlebot-Image/1.0
Googlebot News
  • Googlebot-News
  • Googlebot
Googlebot-News
Googlebot Video
  • Googlebot-Video
  • Googlebot
Googlebot-Video/1.0
Googlebot 

(Desktop)

  • Googlebot
  • Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
  • Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36o (utilizzato raramente):
     
  • Googlebot/2.1 (+http://www.google.com/bot.html)
Googlebot 

(Smartphone)

  • Googlebot
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Mobile AdSense
  • Mediapartners-Google
(Vari tipi di dispositivi mobili) (compatible; Mediapartners-Google/2.1+http://www.google.com/bot.html)
Mobile Apps Android 

(Controlla la qualità dell’annuncio nella pagina per app Android. segue le regole dei robot AdsBot-Google.)

  • AdsBot-Google-Mobile-Apps
AdsBot-Google-Mobile-Ap

I crawler più comuni di Google

 

Un crawler è un tipo di bot (programma o script che automatizza delle operazioni), e i crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale per ciò si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata). Durante l’analisi di un URL, lo spider identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare.
Il comportamento dei crawler attivi in Rete è tracciato da quanto definito nel file robots.txt, individuabile nella root del sito. 

Esistono anche crawler open source. In particolare, è definito nella riga ‘User-agent‘ mediante una stringa di testo (“token“).

 

Per capire come si svolge veramente un’attività di SEO e quindi come funziona l’algoritmo di Google, occorre conoscere e capire come funzionano le due “menti” operative di GoogleBot, ovvero lo spider ed il crawler.
Spider
L’attività principale dello spider è di farsi una copia del codice html delle pagine di un sito web, suddividerlo in parti, quindi procedere a farne il controllo spam, salvare un estratto dei contenuti nell’Index ed in alcuni casi inviare una immagine (copia) della pagina alla cache. Per sapere come trovare la copia cache delle proprie pagine ecco un post sui comandi avanzati.

Crawler
La funzione del Crawler è analizzare e seguire i link forniti dallo spider nella sua attività di scansione delle pagine. Tutti i link seguiti dal crawler sono analizzati in profondità in base ad una serie di parametri (anchor text, proprietario del dominio, whois etc.) che permettono a Google di capire il valore SEO reale di ogni link e quindi eventuali penalty. Se il crawler trova nuove pagine non presenti nell’indice dello spider, li comunica allo spider stesso che ricomincia la scansione e indicizzazione.

 

In una accezione secondaria, il termine web crawler viene utilizzato anche per indicare programmi (come PageNest, MSIECrawler, Offline Explorer) concepiti per scaricare il contenuto di un intero sito web sul disco fisso del computer.

“Polimorfi” tacciati da Memory Alpha in quanto, accedendo al sito in modo aggressivo, implicano un rallentamento drastico delle possibilità di accesso al sito stesso da parte dei visitatori.

 

2019: la SEO che sarà

(martedì 6 novembre)

Già il secondo semestre del 2018, disseminato di novità inerenti la parte algoritmica e tendenze di ricerca sempre più dettagliate, ha gettato le basi per quelli che saranno i trend della SEO nel 2019.

La chiave per essere all’avanguardia nel settore della SEO è prevedere i futuri sviluppi con un occhio di riguardo alle mosse di Google. E quindi

  • USER EXPERIENCE

Già dal 2015 con l’algoritmo RankBrain, nato e sviluppato sull’onda del coetaneo e predecessore Hummingbird

, si è fatto un determinante passo in avanti nell’ottica di avere risultati sempre più mirati e soddisfacenti per quelli che sono gli intenti di ricerca dell’utente. Ciò a tutto vantaggio della user experience (o UX) si intende l’esperienza che un utente prova quando interagisce con un qualsiasi prodotto, sistema o servizio, di design, che sia fisico o digitale”.

                  

  1. MOBILE FIRST

L’inversione di tendenza registrata da inizio 2018 a proposito delle ricerche online appannaggio dei dispositivi mobile (60% con punte addirittura del 90% in alcun nicchie) è stato l’impulso per quello che è noto come ‘Mobile First’, cioè la realizzazione di un sito web partendo da quella che è la risoluzione di un dispositivo mobile adattandosi via via alle risoluzioni maggiori, rimanendo fedele cioé al progetto iniziale ma capovolgendo il concetto di Responsive Web Design.

 

  1. CONTENUTI VIDEO

Partendo da un’intuizione brillante ma fondata, un elemento destinato a fare la differenza sarà quello di incentivare l’utilizzo di contenuti video e multimediali, in armonia con una giusta combinazione con i testi.

 

  1. RICERCA VOCALE

Correlata alla importante crescita fatta registrare dal settore mobile è quella delle ricerche vocali. Non più intesa come ricerca di un numero di telefono da chiamare o per comunicare keywords, l’intento che si insegue è di dare comandi attraverso la voce consentendo così di risparmiare tempo (si pensi ad esempio quando si hanno le mai occupate).

 

  1. FEATURED SNIPPET

Effettuando una qualsiasi ricerca su Google per una parola chiave popolare oltre ai canonici risultati organici e a pagamento potrebbero essere mostrati, nella parte superiore della pagina, delle porzioni di altre pagine web che vengono richiamate con lo scopo di dare una risposta diretta alla query. Non essendo a pagamento, l’unico modo per far apparire il featured snippet è ottimizzare il sito.

 

  1. OTTIMIZZAZIONE CONTENUTI E SEO ON-PAGE

I focus finora illustrati non devono però mettere in secondo piano l’ottimizzazione on-page e la qualità dei contenuti, dal caricamento delle pagine all’ottimizzazione dei (meta)tag di una pagina all’evitare contenuti duplicati …

(Rif. www.progettofirenze.com/blog)

 

Col nuovo anno dunque la Seo sarà particolarmente incentrata sull’esperienza utente da mobile e sui contenuti di valore, oltre che su link e menzioni.

Entrando più nel tecnico, non si può non denotare che l’annata in corso ha portato alla ribalta il passaggio al protocollo per la comunicazione sicura “HTTPS” in sostituzione del vecchio “HTTP” (in realtà ancora largamente usato) e il sistema “AMP” (Accelerated Mobile Pages, in verità lanciato già da circa tre anni) “spinto” per velocizzare il caricamento delle pagine su dispositivi mobile.

 

Oltre a questi parametri, dovremo continuare a focalizzare la nostra attenzione innanzitutto su contenuti di alta qualità, sulla lunghezza dei testi, su un equo utilizzo delle keyword, dei link interni e dei vari h2 … h6, sull’uso di una adeguata meta descrizione (da molti ormai reputata secondaria, ma invece talvolta di importanza strategica) e di un valido indirizzo URL, sulla valorizzazione di video e fotografie all’interno delle pagine e, naturalmente, sul confronto continuo con altre realtà concorrenti e sulle intuizioni personali in modo da riuscire ad anticipare proprio la diretta concorrenza.

 

Accanto alla Search Engine Optimization, parlando di segnali di evoluzione non va dimenticato il Content Marketing (“Content is the King”), uno dei pilastri del Web Marketing e che procede di pari passo con la realizzazione di siti web in quanto entrambe le attività sono ‘rincorse” al fine di  fornire ai visitatori ciò di cui hanno bisogno, nella forma migliore possibile.

Se è innegabile che  gran parte delle chiavi di ricerca secche a intento commerciale siano ‘in mano’ ai colossi internazionali (eBay, Amazon, ecc.), diversamente avviene per le ricerche di tipo informativo, alle quali ognuno può rispondere con contenuti approfonditi ed esaustivi per guadagnare la fiducia del proprio pubblico. Le ricerche informative infatti possono nascondere intenti di acquisto utili per i propri scopi commerciali.

Soddisfare query informazionali nasconde la possibilità di diventare autorevoli punti di riferimento per le persone che avranno bisogno di prodotti e/o servizi per rispondere ad esigenze simili. Necessità alle quali si può rispondere offrendo articoli per il blog, ebook, video guide, infografiche.

Investire sul Content Marketing significa puntare sulla costruzione di autorevolezza agli occhi del proprio pubblico attraverso la realizzazione di contenuti realmente utili, originali e di valore. La produzione di contenuti è un processo di costruzione di credibilità e valore che permane nel tempo e che si auto-alimenta per mezzo della continua crescita di notorietà del brand.

 

 

 

SEO Audit: cos’è e come si fa

(sabato 3 novembre)

SEO Audit: cos’è e come si fa

 Ecco, un lavoro ci è stato commissionato: la ditta X ci incarica di realizzare un sito per la sua attività … Bene, come da ABC procediamo anzitutto ad un colloquio dettagliato nel quale “capire” il segmento dove lavora, il target di clienti che vuole raggiungere, che finalità ha il sito …..

Dopo una prima elaborazione del progetto web e (gli inevitabili) doverosi successivi aggiustamenti da apportare su richiesta del cliente, la “creatura” è pronta per essere data in pasto al mare magnum di Internet e ai motori di ricerca, con l’obbiettivo di ottenere un buon posizionamento in SERP, sapendo di contare su un sito ottimizzato dal nostro collega.

Già, ma come ogni cosa su questo mondo ‘tutto è relativo’, anche il nostro buon lavoro !

 

Ecco allora che il lavoro del SEO non si ferma al ‘confezionamento’ del sito web con tutti i dogmi richiesti per l’ottimizzazione SEO ma occorre monitorare costantemente quanto fatto: questo è fare SEO AUDIT.

Si tratta di uno step indispensabile per ottenere un buon risultato … da piazzare, e oltretutto necessario nel condurre un’attività SEO. Consiste in una analisi strutturale, dei contenuti e concorrenziale del sito web, andando così ad analizzare tutti gli aspetti – interni ed esterni – che potrebbero influenzare il posizionamento sui motori di ricerca.

Con questa attività è così possibile individuare i punti di forza e di debolezza del sito, e di conseguenza apportare le dovute correzioni con un’opportuna serie di attività SEO al fine di massimizzare il risultato.

Non esiste un’unica strada per perseguire un’analisi di SEO audit anzi, al contrario ognuno avrò una checklist personale.

Questo significa che ognuno di noi avrà una personale checklist per quanto riguarda l’audit SEO di un sito web. Quella che segue è la mia personale lista, spero tu possa trarne qualche spunto interessante. Per prima cosa va detto che la mia analisi SEO è articolata in questo modo:

  • Analizzo il settore.
  • Passo gli aspetti on site.
  • Affronto i punti off site.

Analisi del settore

La prima operazione: fare un’analisi del settore. E’ importante capire chi sono i principali competitor, quali contenuti offrono, come sono strutturati e quali sono i punti di forza.

Cerco di individuare le keyword più importanti del settore e faccio delle ricerche per scoprire i siti che si posizionano, in modo ricorrente, ai primi posti dei motori di ricerca.

Questa sezione è utile per individuare, velocemente, i siti che hanno pagine posizionate per le parole chiave che ci interessano sul serio.

Una volta individuati i competitor passiamo alla parte più importante: analizzare i siti. Questo lavoro va fatto manualmente.

L’obiettivo è quello di capire cosa offrono, in termini di servizi/prodotti/contenuti, i principali competitor. Un buon metodo è di effettuare un’analisi a mano, visitando i siti e annotando gli aspetti rilevanti di ognuno.

Raccolgo i numeri in un file Excel per poi fare delle stime medie; mi interessa individuare quelle che sono i “servizi aggiuntivi” che possono essere inseriti nel settore. Ad esempio, tramite di esso potrei accorgermi che tutti i principali competitor offrono un servizio di informazioni H24 attraverso un numero verde, o magari che nei contenuti più importanti hanno deciso di includere dei video.

Insomma, questa fase preliminare mi permette di avere una panoramica del contesto e di quello che fanno i concorrenti che Google premia, posizionandoli meglio nelle serp di riferimento.

Analisi degli aspetti on site

Mi pongo dinanzi al sito con l’obbiettivo di analizzarlo, mettendomi nei panni dell’ utente standard. Mi pongo una serie di domande cercando di rispondere agli aspetti informazionali, legati all’usabilità e alla fiducia del sito (Il sito è facilmente navigabile ? Capisco subito cosa offre ? Il caricamento avviene in tempi accettabili ? I contenuti soddisfano le mie esigenze ?). Interessa capire se l’utente è messo nelle condizioni di poter trovare quello che cerca.

Il secondo passo è quello di analizzare il file robots.txt per controllare se i motori di ricerca hanno accesso a tutte le pagine che devono essere indicizzate o, viceversa, escluse.

A questo punto, individuati i punti deboli del sito posso procedere con l’analisi attraverso i SEO tool (Search Console, Visual SEO Studio, Seo PowerSuite, Seozoom, Google Analytics). 

 

 

Analisi off site

Per analisi off-site si intende l’insieme dei fattori che sono esterni al sito (link, citazioni, ecc.). In questa fase diventano importantissimi gli strumenti di analisi; fra questi, di indubbia utilità sono:

  • Ahrefs: per fare un’analisi approfondita dei link;
  • Buzzsumo: per analizzare la visibilità sui social network;

L’analisi dei fattori off site siamo consente di perfezionare la strategia SEO: valutare, ad esempio, le azioni per rafforzare una eventuale campagna di acquisizione link.

È il momento dell’analisi SEO del sito

La prima parte della SEO Audit è andata. Hai individuato i dati essenziali del contesto, usato i SEO tool per analizzare i competitor, concentrando l’attenzione su quanto è on site e quanto off site al sito. A questo punto siamo in gradi di determinare i fattori essenziali per la SEO Audit:

  • Abbiamo una panoramica della struttura del sito;
  • Siamo in grado di valutare la user experience;
  • Individuare possibili errori nel codice o nei meta tag;
  • Quali contenuti mancano al sito per poter essere competitivo.
  • Il sito presenta dei contenuti duplicati.
  • Presenza di contenuti che sono impossibili da indicizzare per Google.
  • Cosa manca, dal punto di vista dei link, per poter massimizzare la visibilità sui motori.

Tutte queste informazioni, insieme all’analisi preliminare dei competitor, ci permettono di sviluppare la nostra analisi SEO. Si può ora andare ad elaborare un PDF in cui inserire tutti i dati raccolti in tabelle. In questo ci può essere molto utile Excel, altrimenti ci sono le mappe mentali.

Meglio i SEO tool o un lavoro manuale ?

Parlando di analisi SEO sarebbe ipocrita non sottolineare l’importanza dei tools, i quali assumono un ruolo non indifferente nell’attività e consentono di accedere velocemente a informazioni preziose.

Ma sarebbe corretto però affermare che i tool “sono tutto” in quanto è buona prassi comunque navigare il sito e esplorarlo per comprenderne le sue dinamiche.

Il filo conduttore è che se il sito non è pensato per soddisfare la search intent degli utenti non andrà lontano: se il sito non è semplice da navigare, se i contenuti non sono organizzati nel modo giusto o non sono presenti le informazioni di cui gli utenti necessitano, nessuno acquisterà mai il prodotto/servizio.

 

 

Il PageRank cede il passo al Domain Authority

(sabato 27 ottobre)

PageRank come strumento di indicizzazione

Sostanzialmente, l’indicizzazione di un sito web o blog si fonda sulla rilevanza che esso ha nel World Wide Web (quanto cioè  importante è a livello di contenuti per l’argomento trattato), vale a dire quanto è “reso forte” (in ottica link building) da altri documenti, pertanto dalla sua bontà.


Il PageRank, brevetto di proprietà Google, fino a una manciata d’anni fa di efficacia indiscutibile in termini SEO, è definito da un algoritmo mediante cui viene assegnato un valore numerico ad ogni collegamento (hyperlink) presente nel documento stesso, con il fine di misurarne l’importanza. È un valore che può variare da 0 a 10 che Google assegna ad ogni pagina Web per valutarne il livello di popolarità.

 

 

L’algoritmo calcola la probabilità che quella pagina venga visitata, che cioè una persona clicchi su un link che faccia atterrare su di essa.

 

Introdotto da Larry Page e Sergey Brin, fondatori di Google, da cui ereditò il nome di PageRank, il primo passo fu la definizione di un algoritmo di analisi che assegnasse un valore numerico ad ognuna delle pagine web di un sito con l’obiettivo finale di qualificarne l’importanza e il valore dello stesso.

Un pò di storia del PageRank

Larry Page e Sergey Brin nel 1998

Nell’epoca in cui i due si incontrarono, la maggior parte dei motori di ricerca esistenti basavano i loro risultati sulla Keyword Density, ovvero quante volte una determinata parola chiave o frase veniva ripetuta all’interno di un contenuto.

Il valore di PageRank risulta da un algoritmo matematico basato sul grafo dei collegamenti del Web, formato da tutte le pagine (nodi) e collegamenti (archi) che formano il web.

 

Interessante la definizione ‘Il valore di PageRank risulta da un algoritmo matematico basato sul grafo dei collegamenti del Web, formato da tutte le pagine (nodi) e collegamenti (archi) che formano il web. Misura l’importanza di una particolare pagina. Un link verso una pagina conta come un voto di supporto. Il PageRank di una pagina dipende a sua volta dal valore PR delle pagine che linkano ad essa. Una pagina linkata da altre pagine ad alto PageRank riceverà a sua volta un alto PageRank.‘ (rif.: www.evemilano.com)

Col passare del tempo- e il succedersi di modelli sempre più sofisticati si è cercato di evolvere verso algoritmi sempre più precisi, con il fine di ignorare link artificiosi, non naturali e creati con l’unico scopo di alterare il PageRank.
   

 

 

Con questa metrica Google si è distinto ‘organicamente’ dagli altri motori di ricerca.

 

Negli ultimi 10 anni, però, il succedersi di modifiche sempre più frequenti ha fatto sì che il PageRank non avesse più un ruolo di predominanza verso altri algoritmi di ranking.

In effetti, il PageRank rappresenta solo quello che interessa davvero a un imprenditore deciso a mettersi sul web: fare più soldi, attirare più lettori, generare più contatti, eccetera. Il PR viene oltretutto aggiornato poche volte l’anno. L’essere ‘sorpassato’ non vuol dire però che viene accantonato totalmente: appare come una metrica di successo solo nel momento in cui è alto, sinonimo di un sito posizionato: maggior traffico in ingresso vuol dire che più persone fanno quello che si vuole attraverso le mie pagine. Ha un significato fine a se stesso.

Si può dire che l’evoluzione del PageRank è andata di pari passo con l’evolversi del motore di ricerca di Google: vale a dire, mentre si assisteva a una progressiva diversificazione delle SERP, in ragione del succedersi delle logiche che stanno a monte, e dello ‘stravolgimento’ dei piazzamenti, l’indicizzazione non poteva più essere imputabile, riferita ad un unico parametro; si aggiunga che per confrontare fra di loro i diversi siti inoltre ogni query esigeva risposte viavia più complesse.

Ecco che con il passare degli anni, per allinearsi alle mutevoli esigenze anche Google iniziò ad evolvere i propri algoritmi sulla base di esigenze sempre più definite e specifiche.
Addirittura, “Sfuggire il PageRank” divenne necessità primaria per un motore di ricerca che volesse emergere sugli altri.

Google ha sempre indicato la rilevanza come uno degli ingredienti principali per posizionarsi nelle SERP. Ma solo perché è qualcosa di facile da tracciare non significa che rappresenta esattamente quello che succede al tuo sito web: guardare al PageRank come ad una metrica di successo ha senso solo nel momento in cui più è alto e meglio il mio sito è posizionato, più traffico riceve, e più persone fanno quello che voglio che facciano sulle mie pagine.

 

 

L’orientamento è ora quello di prendere in considerazione metriche legate ai guadagni del proprio sito o del business, piuttosto che focalizzarsi su quelle legate al ranking. Considera metriche che si aggiornano quotidianamente o settimanalmente, piuttosto che numeri (tasso di conversione, frequenza di rimbalzo, percentuale di click), tendendo cioè a metriche più legate alle performance e al ritorno economico (rif: blog.tagliaerbe.com).

Nella primavera del 2016 Google ha decretato la fine del Pagerank, ‘coefficiente’ fino ad allora utilizzato dal motore di ricerca di Google per determinare l’indicizzazione. (rif.: www.atopway.it).

‘il rilievo che ogni pagina web assume all’interno di una rete ipertestuale, determinava la sua reputazione’.

Da PageRank a Domain Authority

Domain Authority (“DA”) è ad oggi un parametro fra i più ricorrenti per valutare affidabilità e autorevolezza di un sito web. E’ un punteggio di ranking dei motori di ricerca sviluppato da Moz che prevede quanto un sito si classificherà nelle pagine dei risultati dei motori di ricerca (SERP).

L’Autorità di dominio viene calcolata valutando più fattori, incluso il collegamento dei domini radice e il numero di collegamenti totali, in un singolo punteggio DA. Questo punteggio può quindi essere utilizzato quando si confrontano siti Web o si monitora la “forza di ranking” di un sito web nel tempo.
Sviluppata da Moz, è una metrica utilizzata per valutare l’importanza di un dominio.

 Si basa su una scala di valori da 0 a 100  , dove un valore più alto sta ad indicare che il sito è importante, con buona autorevolezza e con una buona reputazione di link building; viceversa, per valori bassi. Fisiologicamente, è attendibile posizionarsi ovvero oscillare su numeri bassi mentre più difficile è “spingere” a valori più elevati.
Senza scendere nei dettagli, viene calcolata sulla base di tre fattori: dimensione (numero di articoli/contenuti pubblicati: più è alto il numero maggiore è la dimensione), popolarità (frequenza dei link di qualità – tali sono se provenienti da siti ben posizionati dunque già con un DA alto) ed età (da quanti anni è on line: più è vecchio più è affidabile) del sito/blog.

 

 

E’ possibile visualizzare il DA di un sito web usando MozBar (un’estensione di Chrome gratuita), Link Explorer (uno strumento di analisi di backlink), la sezione Analisi SERP di Keyword Explorer e decine di altri strumenti SEO in tutto il web. Per valutare questa metrica si può ricorrere a strumenti SEO a pagamento, ma esistono anche soluzioni free messe a disposizione da Moz.
Il suo valore aumenta migliorando la SEO sul sito, on-site come pure off-site.

Indicizzazione e ottimizzazione

(mercoledì 24 ottobre)

L’approccio con il mondo della SEO implica spesso, soprattutto per i neofiti, un utilizzo errato di terminologie; fra queste, penso sia diffusa la confusione che si viene a creare parlando di ‘indicizzazione’ e ‘ottimizzazione’.

Con il termine “indicizzazione” si intende semplicemente l’inserimento di un sito o un blog in un motore di ricerca. In ciò differisce dal ricorrente e più “sulla bocca” processo di ottimizzazione, il quale riguarda l’insieme delle attività finalizzate a migliorare la visibilità del sito/blog sui motori di ricerca.
Processo che si realizza attraverso tre step:
-segnalazione sito al motore di ricerca;
-creazione e inserimento del file sitemap.xml
– essere citati da altre fonti (essere citati o meglio linkati da altri siti web è spesso considerato come sinonimo di qualità e/o interesse)

L’indicizzazione di un sito internet è la fase in cui il motore di ricerca raccoglie, analizza ed archivia i dati per facilitare la rapida e accurata ricerca di informazioni

 

Se un sito non viene indicizzato, non può comparire nei risultati di ricerca. L’indicizzazione di siti internet viene effettuata in maniera automatica dal motore stesso, tramite particolari programmi chiamati spider (“ragni”), che entrano in un sito e ne leggono il codice sorgente.[/caption]

 

Lindicizzazione SEO è un processo, quindi un insieme di azioni, che ha come unico obiettivo quello di raccogliere le informazioni relative ad una certa pagina web e renderle disponibili nel database del motore di ricerca.

 

Interessante notare che quando un utente effettua una ricerca su Google, quest’ultimo deve interpretare il suo bisogno intrinseco nella ricerca, capire quale tra i tanti siti internet che compongono la rete risponda meglio al suo bisogno e restituire una lista di siti che soddisfino al meglio la richiesta dell’utente “intento di ricerca” (questa operazione deve avvenire in pochi istanti: è per questo che il motore deve avere già memorizzate al proprio interno il maggior numero possibile di info sulle pagine, pena l’esclusione della stessa/e dall’attività di ricerca).

Terminata l’attività di registrazione del sito, i motori di ricerca scansionano periodicamente i siti presenti nel proprio db per verificare eventuali aggiornamenti ricorrendo al servizio add-url (segnala un sito al motore di ricerca): tramite particolari programmi chiamati spider (letteralmente “ragni”, nel senso che essi attraversano la “ragnatela” di collegamenti eletto stereotipo con cui si raffigura simbolicamente il web), entrano in un sito e ne incominciano a leggere il markup HTML, alla ricerca di eventuali modifiche del contenuto o della struttura; procedendo in cascata, se trova un link a un’altra pagina del sito o ad un altro sito, analizza anche quest’ultimo di conseguenza.

Dopo aver scansionato la rete e quindi indicizzato (nel senso di raggruppato) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’analisi delle parole chiave contenute. In questo modo i motori di ricerca, tramite gli algoritmi, assicurano ai loro utenti contenuti validi e aggiornati. 

Quando il motore di ricerca termina di scansionare i siti già presenti in archivio passa a scansionare tutti i siti proposti nel motori di ricerca. Questo sistema è oramai obsoleto: è preferibile fare uso di strumenti più moderni per monitorare il proprio sito, come ad esempio la Search Console di Google.

Da notare che il sito non viene indicizzato se nel codice sorgente sono presenti determinate istruzioni (ad esempio come <meta name=”robots” content=”noindex”> oppure <meta name=”robots” content=”noimageindex”>); se invece non è specificato nulla a riguardo, viene indicizzato l’intero contenuto della pagina Web.

A questo punto, scansionata la rete e indicizzata (cioè raggruppata) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’apprezzamento delle parole chiave trovate al suo interno e alla “fedeltà” e attendibilità dei contenuti (ciò avviene in base alla logica dell’algoritmo utilizzato dal motore di ricerca). 

Avere un sito indicizzato su Google piuttosto che Bing o Flickr significa che le URL che lo compongono sono state inserite nella banca dati del motore di ricerca, e conseguentemente quando l’utente eseguirà una ricerca lo stesso comparirà nella SERP (lista dei risultati che vengono trovati). Quando si parla di indicizzazione è sempre meglio parlare in termini di singoli url e non del sito nella sua integrità: non è infatti detto le sue pagine (che possono essere anche svariate, ognuna delle quali  contraddistinta da un preciso “url”)  siano presenti nell’indice del motore di ricerca: alcune possono essere duplicate, altre possono finire nell’indice secondario di Google, altre possono risultare ignare perchè non essere ancora scansionate dallo spider.

Se le attività che riguardano l’indicizzazione sono eseguite automaticamente dal motore di ricerca, quelle di ottimizzazione (attività di SEO – Search Engine Optimization) vengono svolte dalle persone, con la finalità di incrementare il posizionamento organico (cioè non a pagamento) di un sito nei risultati dei motori di ricerca, con l’obiettivo di far apparire il proprio sito in cima alle liste di risultati.

Quindi indicizzazione e posizionamento sono due processi molto differenti tra loro. Il primo ha come unica finalità quella di inserire un sito o una pagina web nel database del motore di ricerca; il secondo invece, mediante opportune strategie web e di Inbound Marketing * mira a portare un determinato sito nelle primissime posizioni dei risultati organici di Google.