Google presenta BERT, l’algoritmo che comprende il linguaggio naturale

Google continua a lavorare nell’ottica di affinare gli strumenti che regolano il proprio motore di ricerca: con un post sul proprio blog ufficiale, l’azienda ha recente annunciato BERT, acronimo per Bidirectional Encoder Representations from Transformers, un algoritmo definito dalla stessa azienda come “il più grande passo in avanti degli ultimi cinque anni, e uno dei più grandi nella storia della ricerca”.

Cos’è BERT?

É un algoritmo basato su reti neurali in grado di comprendere meglio il linguaggio naturale umano. Questo è possibile implementando i modelli transformers, algoritmi che analizzano le parole in relazione a tutte le altre parole che compongono una frase, anzichè una per una. Questo consentirà di fornire risultati di ricerca relativi a queries più lunghe e complesse rispetto alla tradizionale combinazione di semplici parole chiave. Applicare questo protocollo al sistema di ranking e featured snippets consentirà alla ricerca di Google di comprendere meglio 1 ricerca su 10. Per quanto sembri una percentuale irrisoria, sembra che stia già iniziando a influenzare alcuni parametri SERPs in modo significativo. Per illustrare la portata della novità, Google ha esposto un semplice esempio di ricerca: “2019 brazil traveler to usa need a visa.” Fino ad oggi, gli algoritmi di Google non sarebbero stati in grado di comprendere che si tratta di un passeggero che deve recarsi negli Stati Uniti dal Brasile, e non viceversa. Grazie a BERT sarà in grado di capirlo e di mostrare risultati di ricerca più mirati e precisi.

Un simile upgrade a livello software necessita di un hardware dedicato a garantirne il funzionamento, difatti Google ha aggiornato i propri data center alle nuove Cloud TPU 3.0 che erano già state presentate nel Google I/O 2018. Queste unità di calcolo si differenziano dalla precedenti per l’introduzione di un dissipamento a liquido dovuto alla necessità di raffreddare un sistema capace di prestazioni 8 volte superiori rispetto alle attuali.

BERT sarà inizialmente disponibile solo in inglese, per poi estendersi anche ad lingue nel corso dei prossimi mesi.

La strada per una piena comprensione del linguaggio umano è ancora lunga, ma Google continua ad implementare nuovi algoritmi e perfezionare quelli esistenti in modo da renderla realtà nel prossimo futuro.

 Infografica vettore creata da roserodionova – it.freepik.com