Google Search scopre le reti neurali

(giovedì 31 ottobre)

E’ di questa settimana la notizia di un nuovo scossone all’algoritmo di ricerca di Google, una novità radicale che va ad impattare sulle ricerche vocali che costituiranno una fetta importante nelle ricerche online. Basandosi cioè sullo studio e l’applicazione delle reti neurali, il colosso di Mountain View sta implementando il motore di ricerca Google Search con una nuova tecnologia denominata BERT (Bidirectional Encoder Representations for Transformers), una tecnica che permetterebbe di analizzare una frase nel suo insieme e nel contesto in cui viene utilizzata, e non come finora analizzando ogni elemento a sé stante, in modo da comprendere meglio il significato delle richieste che si fanno online ed evitando così di fornire risultati piuttosto approssimativi.

Google afferma che il nuovo sistema potrà offrire un servizio migliore, soprattutto quando vengono utilizzate intere frasi come chiavi di ricerca. Finora infatti il motore di ricerca ha sempre avuto alcuni problemi con le ricerche più lunghe: nella maggior parte dei casi fornendo dei risultati generici, basati solo su alcune delle parole chiave utilizzate.

Al momento il sistema funziona solo in inglese ed è limitato agli Stati Uniti.

Con l’ausilio di questa nuova tecnologia, si stima un miglioramento delle ricerche online del 10%, andando a colpire in modo significativo in particolare l’ordine dei risultati.

L’avvento della tecnologia BERT è stata anticipata da altri tentativi di avvicinamento all’AI, con un orientamento più votato a cogliere umori ed emozioni del ‘linguaggio naturale’: Tay di Microsoft e i tentativi tramite chatbot conversazionali ne sono esempi, peraltro non sempre azzeccati negli ntenti_.

Google BERT non sostituisce Rankbrain, il primo metodo (datato 2015) di intelligenza artificiale di Google per migliorare la comprensione delle parole; piuttosto lo supporta nel compito. BERT aiuta Google a capire cosa intendono le persone quando digitano determinate parole per formare long tail keyword.


Si può affermare che l’intelligenza artificiale compie progressi importanti ogni giorno che passa: così, le applicazioni non fanno che migliorare notevolmente le performance nel riconoscimento delle forme di linguaggio parlato come pure le tecnologie di riconoscimento facciale e comportamentale delle persone. Ma mai come in questo caso vale la pena non andare di fretta; proprio questo tipo di applicazioni dell’AI implicano un procedimento non sempre lineare e privo di problemi legati all’approccio della macchina al ‘parlato’.

Siamo quindi vicini a sostenere una piacevole conversazione con automi artificiali? Occorre procedere con una certa prudenza per ragioni di varia natura.

Il lavoro di SEO copywriting è coinvolto. I modelli BERT, dunque, considerano il contesto di una parola e non il termine isolato. Passaggio importante per capire l’intento di ricerca che sta dietro a una query consentendo alle macchine di ottenere una migliore elaborazione del linguaggio naturale (NLP).

Ma questo era già chiaro, Google BERT non fa altro che avvantaggiare i contenuti di qualità.