Normaal hebben updates van Google’s zoekmachine dierennamen als Penguin, Panda en Hummingbird. Maar de laatste update heet BERT. Ik bespaar je het acroniem, het komt erop neer dat Google zoekvragen beter probeert te begrijpen vanuit de mens die de vraag stelt. Als het goed is, sluit het antwoord, het zoekresultaat, nauwer aan op de bedoeling van de vragensteller. Noem het context, noem nuance, Google noemt het BERT.
Punt is dat veel mensen lang niet altijd weten hoe ze hun vraag moeten formuleren, ze gooien er een reeks woorden tegenaan en maken nog typo’s ook. 15% van alle dagelijkse zoekopdrachten is nooit eerder zo geformuleerd. En toch moet Google een match vinden. Door Machine Learning gaat dat nu steeds beter. BERT zoekt ons op, zou je kunnen zeggen, in plaats van andersom. En dat is goed nieuws.
Overigens, Google hanteert iets van 200 tot 500 factoren om content te begrijpen en met zoekvragen te matchen. En dat algoritme wijzigt ook nog eens regelmatig. We hoeven dus niet de illusie te hebben dat we dat kunnen doorgronden.
Wat betekent het voor ons, de bedenkers en schrijvers van content? Dat we vooral vanuit het perspectief van de lezer, de bezoeker van de website moeten blijven schrijven. Welke informatie zoeken zij, welke bedoeling hebben ze? En dan gewoon mooie copy, die lekker is om te lezen en waar je wat aan hebt. BERT is er blij mee!
Vooruit, voor de liefhebbers. BERT staat voor Bidirectional Encoder Representations from Transformers. Nou, dat helpt ons niet echt verder. Meer hebben we aan wat Google nastreeft ”It’s our job to figure out what you’re searching for and surface helpful information from the web, no matter how you spell or combine the words in your query.” Daar kan BERT wat mee!
Meer over Google BERT: https://www.blog.google/products/search/search-language-understanding-bert/
#bertupdate #bedoeling #content