Google BERT

BERT steht für „Bidirectional Encoder Representations from Transformers“ und ist ein Algorithmus von Google. Vorgestellt wurde diese Technik bereits 2018, im Jahr 2019 folgte dann ein großes BERT-Update.

Allgemeine Informationen zum Thema[Bearbeiten]

Zweck von BERT ist es, Suchanfragen gezielter zuordnen zu können, sie also in einen Kontext zu setzen und so mehr Verständnis für die Motivation des Suchenden zu entwickeln. Präpositionen wie „für“ oder „zu“ wurden von Google früher kaum beachtet, dadurch wurden zu bestimmten Suchen teils unpassende Ergebnisse angezeigt. Mit BERT wollte Google hier einen Schritt nach vorn machen.

BERT begann zunächst nur im englischsprachigen Raum bzw. den USA. Von Beginn an war jedoch klar, dass BERT in zahlreichen anderen Ländern und Sprachen ebenfalls zum Einsatz kommen sollte.

Hintergrund für BERT und andere Algorithmen sind die sogenannten Core-Updates von Google. Diese werden regelmäßig durchgeführt und betreffen die organischen Rankings von Websites. Im Zuge solcher Updates können sich die Ergebnisse von Suchanfragen teils erheblich verändern. Das kann für eine Website bedeuten, dass sie plötzlich deutlich besser gerankt wird als vorher. Es kann aber auch in die umgekehrte Richtung gehen – Websites, die bisher gut gerankt haben, fallen nach einem Google Update also plötzlich beim Ranking nach unten[1].

Beispiel für eine Suche ohne BERT[Bearbeiten]

Klassische Ergebnisse von Suchanfragen gehen häufig mit Missverständnissen bzw. falschen Interpretationen durch Google einher. Gibt man beispielsweise in das Suchfeld von Google „Brasilien Reisender Visumspflicht nach USA“ ein, „übersieht“ Google das Wort „nach“ oder gibt ihm eine andere Bedeutung.

In diesem Beispiel werden vorrangig Ergebnisse angezeigt, die Informationen über Reisen nach Brasilien enthalten. Gemeint war aber die Reise in die USA, was Google nicht korrekt zuordnen konnte.

Durch BERT wird die Suchanfrage als Ganzes betrachtet und bewertet, also die Suchanfrage semantisch analysiert. Möglich ist dies in erster Linie durch die Orientierung an neuralen Netzwerken, also dem menschlichen Gehirn.

Google führt bereits seit Langem Updates durch, um einerseits die Suchen präzisieren zu können und andererseits aber auch Missbrauch zu verhindern. So hatte das “Florida-Update“ schon im Jahr 2003 den Zweck, Keyword-Spamming (das bis dahin weit verbreitet und äußerst destruktiv für die Suche war) zu verhindern. Inzwischen betont Google den Fokus auf ganze Sätze, die in Suchanfragen immer wieder verwendet werden. Diese können meist nur inhaltlich richtig eingeordnet werden, wenn die Betrachtung einzelner Keywords durch die richtige Interpretation der Semantik ersetzt bzw. ergänzt wird[2].

Googles Sicht der Notwendigkeit von BERT[Bearbeiten]

Google selbst gab bekannt, dass 15 Prozent aller täglichen Suchanfragen das erste Mal gestellt werden. Das ist insofern problematisch, als aus solchen Suchen keine Erkenntnisse aus anderen, älteren Suchanfragen gezogen werden können. Verweildauer oder Klickanfragen führen also hier nicht weiter. Hinzu kommt der weiter oben beschriebene Umstand, dass Anfragen zunehmend nicht mehr aus einzelnen Wörtern, sondern Satzteilen oder ganzen Sätzen bestehen.

Zu Beginn hatte sich Google vorgenommen, 10 Prozent aller englischsprachigen Suchanfragen in das BERT-Update einzubeziehen. Ziel war das bessere Verständnis von Suchanfragen.

Auswirkungen auf die sogenannten „Hard Money Keywords“ sollte das BERT-Update laut Google nicht haben. Eine Suchanfrage mit den Keywords „Hotel“ und „Nordsee“ soll laut Google auch nach dem BERT-Update die gewünschten Inhalte liefern. BERT bezieht sich also auf komplexe Anfragen.

Immer wieder wird BERT auch im Zusammenhang mit dem “RankBrain“ genannt. Dabei handelt es sich um eine Künstliche Intelligenz (KI), die in der Lage ist, komplexe Zusammenhänge zu erkennen. Wird etwa das Keyword „Bank“ im Zusammenhang mit „Geld“ gesucht, ordnet der Algorithmus die Suchanfrage Kreditinstituten zu, nicht Parkbänken, die in diesem Kontext nicht gemeint sein dürften[3].

ERNIE als Gegenstück zu BERT[Bearbeiten]

BERT blieb nicht ohne Reaktion. Konkret war es der chinesische Suchmaschinenanbieter “Baidu“, der einen Algorithmus entwickelte, der sich inhaltlich an BERT orientiert. Schon an der Abkürzung, die für „Enhanced Representation through kNowledge IntEgration“ steht, bemerkt man, dass der Name ein wenig gewollt wirkt, da die Wortgruppe nicht ohne einen kleinen „Trick“ den Namen ERNIE ergibt. Dennoch hat der Test mit dem Namen „General Language Understanding Evaluation (GLUE)“ ergeben, dass ERNIE mit seiner Künstlichen Intelligenz durchaus mit BERT mithalten, sogar besser sein kann.

Laut der GLUE-Skala liegt der durchschnittliche Wert, den ein Mensch auf der entsprechenden Punkteskala erreichen kann, bei 87 von 100 möglichen Punkten. ERNIE hat es geschafft, diesen Wert auf 90 zu erhöhen und löste BERT damit in der GLUE-Rankingliste vom ersten Platz ab.

Zwar fokussiert sich Baidu als chinesischer Anbieter auch auf die chinesische Sprache, doch ERNIE lässt sich auch im englischsprachigen Raum gut anwenden.

Wegen der sprachlichen und semantischen Unterschiede unterscheiden sich BERT und ERNIE in Details, wobei ERNIE als die robustere Variante bezeichnet wird, die darüber hinaus besser im Erkennen und Zuordnen von Suchanfragen ist[4].

Bedeutung für Google[Bearbeiten]

BERT ist ein weiterer Schritt in Richtung Optimierung der Bearbeitung von Suchanfragen durch Google. Durch den Einsatz weiterer Algorithmen und von Künstlicher Intelligenz mit dem Fokus auf das Sprachverständnis ist BERT inzwischen für Google unverzichtbar.

Sicherlich werden in Zukunft weitere Fortschritte im Umgang mit Algorithmen und Künstlicher Intelligenz erzielt werden.

Einzelnachweise[Bearbeiten]

  1. google core updates uebersicht reaktionen affiliateschool.de Abgerufen am 26.05.2020
  2. bert kommt inamewes.com Abgerufen am 26.05.2020
  3. bert update bei google was ist jetzt fuer ihre texte wichtig wortverkauf.de Abgerufen am 26.05.2020
  4. ernie algorithmus zur spracherkennung schlaegt bert seo-suedwest.de Abgerufen am 26.05.2020

Weblinks[Bearbeiten]