Indicizzazione e ottimizzazione

(mercoledì 24 ottobre)

L’approccio con il mondo della SEO implica spesso, soprattutto per i neofiti, un utilizzo errato di terminologie; fra queste, penso sia diffusa la confusione che si viene a creare parlando di ‘indicizzazione’ e ‘ottimizzazione’.

Con il termine “indicizzazione” si intende semplicemente l’inserimento di un sito o un blog in un motore di ricerca. In ciò differisce dal ricorrente e più “sulla bocca” processo di ottimizzazione, il quale riguarda l’insieme delle attività finalizzate a migliorare la visibilità del sito/blog sui motori di ricerca.
Processo che si realizza attraverso tre step:
-segnalazione sito al motore di ricerca;
-creazione e inserimento del file sitemap.xml
– essere citati da altre fonti (essere citati o meglio linkati da altri siti web è spesso considerato come sinonimo di qualità e/o interesse)

L’indicizzazione di un sito internet è la fase in cui il motore di ricerca raccoglie, analizza ed archivia i dati per facilitare la rapida e accurata ricerca di informazioni
Se un sito non viene indicizzato, non può comparire nei risultati di ricerca. L’indicizzazione di siti internet viene effettuata in maniera automatica dal motore stesso, tramite particolari programmi chiamati spider (“ragni”), che entrano in un sito e ne leggono il codice sorgente.

 

Lindicizzazione SEO è un processo, quindi un insieme di azioni, che ha come unico obiettivo quello di raccogliere le informazioni relative ad una certa pagina web e renderle disponibili nel database del motore di ricerca.

 

Interessante notare che quando un utente effettua una ricerca su Google, quest’ultimo deve interpretare il suo bisogno intrinseco nella ricerca, capire quale tra i tanti siti internet che compongono la rete risponda meglio al suo bisogno e restituire una lista di siti che soddisfino al meglio la richiesta dell’utente “intento di ricerca” (questa operazione deve avvenire in pochi istanti: è per questo che il motore deve avere già memorizzate al proprio interno il maggior numero possibile di info sulle pagine, pena l’esclusione della stessa/e dall’attività di ricerca).

Terminata l’attività di registrazione del sito, i motori di ricerca scansionano periodicamente i siti presenti nel proprio db per verificare eventuali aggiornamenti ricorrendo al servizio add-url (segnala un sito al motore di ricerca): tramite particolari programmi chiamati spider (letteralmente “ragni”, nel senso che essi attraversano la “ragnatela” di collegamenti eletto stereotipo con cui si raffigura simbolicamente il web), entrano in un sito e ne incominciano a leggere il markup HTML, alla ricerca di eventuali modifiche del contenuto o della struttura; procedendo in cascata, se trova un link a un’altra pagina del sito o ad un altro sito, analizza anche quest’ultimo di conseguenza.

Dopo aver scansionato la rete e quindi indicizzato (nel senso di raggruppato) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’analisi delle parole chiave contenute. In questo modo i motori di ricerca, tramite gli algoritmi, assicurano ai loro utenti contenuti validi e aggiornati. 

Quando il motore di ricerca termina di scansionare i siti già presenti in archivio passa a scansionare tutti i siti proposti nel motori di ricerca. Questo sistema è oramai obsoleto: è preferibile fare uso di strumenti più moderni per monitorare il proprio sito, come ad esempio la Search Console di Google.

Da notare che il sito non viene indicizzato se nel codice sorgente sono presenti determinate istruzioni (ad esempio come <meta name=”robots” content=”noindex”> oppure <meta name=”robots” content=”noimageindex”>); se invece non è specificato nulla a riguardo, viene indicizzato l’intero contenuto della pagina Web.

A questo punto, scansionata la rete e indicizzata (cioè raggruppata) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’apprezzamento delle parole chiave trovate al suo interno e alla “fedeltà” e attendibilità dei contenuti (ciò avviene in base alla logica dell’algoritmo utilizzato dal motore di ricerca). 

Avere un sito indicizzato su Google piuttosto che Bing o Flickr significa che le URL che lo compongono sono state inserite nella banca dati del motore di ricerca, e conseguentemente quando l’utente eseguirà una ricerca lo stesso comparirà nella SERP (lista dei risultati che vengono trovati). Quando si parla di indicizzazione è sempre meglio parlare in termini di singoli url e non del sito nella sua integrità: non è infatti detto le sue pagine (che possono essere anche svariate, ognuna delle quali  contraddistinta da un preciso “url”)  siano presenti nell’indice del motore di ricerca: alcune possono essere duplicate, altre possono finire nell’indice secondario di Google, altre possono risultare ignare perchè non essere ancora scansionate dallo spider.

Se le attività che riguardano l’indicizzazione sono eseguite automaticamente dal motore di ricerca, quelle di ottimizzazione (attività di SEO – Search Engine Optimization) vengono svolte dalle persone, con la finalità di incrementare il posizionamento organico (cioè non a pagamento) di un sito nei risultati dei motori di ricerca, con l’obiettivo di far apparire il proprio sito in cima alle liste di risultati.

Quindi indicizzazione e posizionamento sono due processi molto differenti tra loro. Il primo ha come unica finalità quella di inserire un sito o una pagina web nel database del motore di ricerca; il secondo invece, mediante opportune strategie web e di Inbound Marketing * mira a portare un determinato sito nelle primissime posizioni dei risultati organici di Google.

Piattaforme blogging: ecco Ghost

(sabato 25 agosto)

Attualmente esiste un cospicuo numero di piattaforme dedicate al blogging (WordPress, Tumblr, Blogger, Medium, Svbtle, LiveJournal, Powerpad, Postach.io, Pen.io, Ghost) sul mercato, destinato ad avere ulteriori sviluppi. Fra di essi, la piattaforma CMS più popolare nel settore è indiscutibilmente WordPress.

Verosimilmente, l’aspirazione di chi si avvicina a questo mondo è di poter utilizzare il miglior strumento disponibile. Da questo punto di vista, la lotta è fra WordPress e Ghost.

Nel corso degli anni, WP ha fatto passi da gigante in termini di     miglioramento dell’usabilità della piattaforma. Se primeggia nella creazione e gestione di blog, questo CMS ha assunto via via importanza anche nel settore della creazione di siti web, e-commerce e svariate soluzioni on line.
Ghost nasce come costola di WordPress e proprio la genesi lo pone come suo diretto concorrente.
Quali sono allora le peculiarità di questo CMS “derivato” che potrebbero farlo preferire ?
Blog Ghost è un CMS open source che consente ai blogger un utilizzo relativamente semplice al fine di pubblicare facilmente i loro contenuti (con correlata anteprima in tempo reale, eludendo così un primo limite di WordPress, fondato su un editor WYSIWYG dove il passaggio da editor visuale ad editor testuale è sempre così preciso). Alla stregua delle cose più naturali, Ghost nasce da un discussione partecipata attorno ad un post pubblicato nel novembre del 2013 da John O’Nolan il quale propose la nascita di una nuova piattaforma incentrata su un unico obbiettivo: fare blogging; post condiviso da molti a significare dunque la necessità di implementare una nuova piattaforma dedicata al blogging, più snella e fruibile da gestire, riducendo i passaggi necessari per iniziare.
Ed è proprio questa idea base, la semplicità, che ha dato slancio al progetto per gli sviluppatori, tanto che da lì a poche settimane è stata resa disponibile la prima versione base della piattaforma web.
Da un primo confronto, Ghost si presenta come un CMS leggero e pronto all’uso: punti di forza di Blog Ghost sono la velocità di accesso al sito, un’interfaccia semplice ed intuitiva, un editor markdown (modalità per aggiungere la formattazione – corsivo, grassetto, elenchi puntati, ecc. – ai testi) innovativo. Caratteristiche che faranno un pò storcere il naso a chi proviene o già mastica il CMS WordPress è una scarsa disponibilità di temi a corredo per “fantasmino” (a meno che si voglia intervenire direttamente sul codice sorgente) e l’assenza del supporto di plugin da installare proprio per facilitarne al massimo l’utilizzo, rendendolo in questo modo però poco flessibile, ciò voluto per “rimanere fedeli” alla vocazione della piattaforma.
Una prima sostanziale differenza fra i due la si coglie già dalla dashboard (“la scrivania”) decisamente intuitiva, vocata alla semplicità, per Blog Ghost più “ricercata” quella di WordPress.

Dashboard Cruscotto di WordPress
Dashboard di WordPress

             

Dashboard Cruscotto di Blog Ghost
Dashboard di Ghost
Velocità caricamento di un sito
Velocità caricamento di un sito

 

 

 

 

Alla “spada di Damocle” dei siti web, vale a dire la velocità di caricamento, la risposta poggia sui diversi linguaggi su cui poggiano le due piattaforme: PHP per WordPress, che non è il massimo in termini di prestazioni necessitando di un tempo maggiore di risposta (pecca peraltro migliorabile mediante la disponibilità di plugin dedicati),

Node.js per Ghost che ne garantisce una struttura più prestante.  

Vista la giovane età, Blog Ghost attualmente non può contare su di una sviluppata e solida community ma perlopiù su forum di discussione, mentre su questo piano WordPress non ha concorrenza contando su una comunità decisamente diffusa e articolata.
In definitiva, Ghost è una soluzione ideale per chi ha interesse a fare blogging “allo stato puro”. Viceversa, se si è intenzionati ad una mera gestione della piattaforma, un blog che possa crescere, con il quale interagire la risposta è WordPress.