Zum Hauptinhalt
German Web Awards Winner 2024
Viertelkreis .brandcom Werbeagentur
werbeagentur frankfurt koeln generationz header v2

In regelmäßigen Abständen veröffentlicht Google Updates für seine Suchmaschine und kündigt diese mittlerweile auch vor der Veröffentlichung an. Diese Updates haben das Ziel, die Suchergebnisse bei Google für die Benutzer zu verbessern und wirken sich mal mehr mal weniger auf das Ranking der eigenen Website aus.

Das neueste Google Update nennt sich BERT. Zunächst einmal für die englische Sprache entwickelt, ist das Google BERT Update seit dem 09.12.2019 neben Deutsch in mehr als 70 weiteren Sprachen verfügbar. Die Abkürzung BERT steht für „Birectional Encoder Representation from Transformers“; aber nun mal von Anfang an:

 

Was genau ist BERT?

Zum einen ist BERT Bestandteil des Suchalgorithmus von Google, also eine Art Werkzeug, das helfen soll Nuancen und den Kontext von Wörtern im Zusammenhang mit der Suche besser zu verstehen. Ziel ist es dabei, die hilfreichsten Suchergebnisse für die Benutzer zu liefern.

BERT ist aber auch der Name eines Forschungsprojektes und liefert gleichzeitig den Namen der akademischen Arbeit mit dem Titel „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“ geschrieben. Die Autoren sind Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova aus dem Google AI Team.

BERT bezeichnet aber mittlerweile auch ein Natural Language Processing (NLP) Framework. Ein Framework ist eine Art Programmiergerüst. Es wurde von Google erstellt und als frei zugängliche (Open-Source-)Software zu Forschungszwecken zugänglich gemacht. Es unterstützt Forscher bei der natürlichen Sprachverarbeitung und dem Verständnis natürlicher Sprache.

 

Wie der NLP-Algorithmus die Suche verändert

Ein wichtiger Schlüssel zur Optimierung der Leistung, die mit BERT erreicht wurde ist, die Fähigkeit Einbettungen auf Eingabeebene kontextunabhängig darstellen und zu einem kontextabhängigen Zusammenhang verfeinern zu können. BERT berücksichtigt erstmals beide Richtungen eines Wortes, daher auch der Name. Das B steht für bidirectional also bidirektional. Dabei lernt BERT fehlende Wörter vorherzusagen unabhängig davon, wo sie im Satz stehen. Betrachtet wird der gesamte Kontext und nicht nur die einzelnen Worte davor und dahinter. Eine weitere Verbesserung wurde durch die Erkennung sogenannter Korreferenzen auch Referenzidentitäten genannt, erzielt.

Ein Beispiel, wie das Erkennen der Referenzidentitäten für die Übersetzungshilfe Google Translate zum Einsatz kommt: Bei der Übersetzung des Satzes „The dog didn´t cross the street because it was too tired“ bezieht sich das Wort „it“ ganz eindeutig auf den Hund. In dem fast identischen Satz „The dog didn´t cross the street because it was too wide” bezieht sich “it” auf die Strasse.

Für Menschen, die eine Sprache in jahrelangem Gebrauch gelernt haben, ist diese Zuordnung offensichtlich. Für einen Algorithmus ist das Erkennen dieser Korreferenzen eine Herausforderung.

Mit Hilfe sogenannter Transformers lernt BERT nun die Wahrscheinlichkeit, dass wie in unserem Beispiel „it“ im ersten Satz für den Hund und im zweiten Satz für die Strasse steht. Dabei muss der gesamte Satz berücksichtigt werden. Mittlerweile wird der Kontextbezug auch über Satzgrenzen hinweg berücksichtigt, denn nicht immer steht die dafür entscheidende Information in ein und demselben Satz.

 

Wo kommt BERT zum Einsatz?

Google`s BERT hilft dabei besser zu verstehen, was Wörter in dem jeweiligen Kontext bedeuten und welche Nuancen dabei eine Rolle spielen. Soweit sich erkennen lässt, setzt BERT derzeit ausschließlich für sogenannte Conversational Searches und Longtail-Suchanfragen ein, also Suchanfragen bestehend aus mehreren Wörtern oder ganzen Sätzen, die einer natürlichen Sprache nahe kommen. Sollte sich der Trend bei digitalen Assistenten fortsetzen, wird es langfristig zu einer Zunahme von Sprachsuchen kommen.

Die verbesserte Fähigkeit der Suchmaschine, die passenden Antworten auf Suchanfragen zu liefern wird möglicherweise auch zu einem Anstieg bei der Integration der sogenannten „Featured Snippets“ führen. „Featured Snippets“ zu Deutsch „hervorgehobene Snippets“ sind ein Format, bei denen Sucher eine direkte Antwort auf ihre Frage erhalten. Google zeigt die „Featured Snippet“ an erster Position in den organischen Suchergebnissen. Der Text wird dabei von Google direkt aus der mit dem Snippet verlinkten Seite erstellt. Meist ist dann jedoch ein Besuch dieser Seite nicht mehr erforderlich. Google beantwortet also immer mehr Fragen direkt in den Suchergebnissen.

 

Fazit

In den Anfängen der Suchmaschine mussten wir uns auf die suchwortbasierte Suche einstellen. Nun gelingt es Google mehr und mehr den Zusammenhang von Suchanfragen kontextbezogen zu verstehen und die Suchergebisse darauf anzupassen.

Googles BERT Update hat keinen direkten Einfluss auf das Ranking von Websites. Folglich kann es auch keine Abstrafung von Google geben. Auch können Websitebetreiber oder Webmaster die Website nicht direkt für BERT optimieren. Eines aber zeigt BERT ganz deutlich:

Google möchte seinen Nutzern die jeweils hilfreichste Information anbieten und ihm bei der Suche Arbeit abnehmen. Es ist nicht ausreichend, die Inhalte des Wettbewerbers einfach umzuschreiben und auf der eigenen Seite zu veröffentlichen. Was zählt sind einzigartige Inhalte, die relevante und belegbare Informationen bieten, die für die Besucher der Website erstellt werden. Daher dürfen wir uns auf weitere Veränderungen in der Google Suche einstellen, die neue Anstrengungen für die Suchmaschinen-Optimierung der eigenen Website mit sich bringen.


Sie benötigen Unterstützung bei der Entwicklung Ihrer individuellen Contentplanung und Suchmaschinenstrategie?
Dann sollten wir unbedingt miteinander sprechen!

Jetzt anfragen →

 

Veröffentlicht am:
24.06.2020
teilen auf:
← zurück zum Blog