Search Neutrality

Das Konzept der Search Neutrality (deutsch: Suchneutralität) verlangt es, dass die Regeln der generellen Netzneutralität auch für Suchmaschinen greifen sollten. Netzneutralität folgt dem Prinzip, dass Daten unparteiisch und unabhängig von Content, Ziel und Quelle übertragen werden sollen.

Im Bezug auf neutrale Suchmaschinen geht es also darum, dass die angezeigten Ergebnisse nicht den Betreiber der Suchmaschine bevorzugen dürfen. In dem Sinne, als dass die SERPs der Suchphrase entsprechen müssen, unabhängig davon, ob diese Ergebnisse auf Plattformen, Seiten und Portalen erscheinen, die in mittelbarem oder unmittelbarem Bezug zum Suchmaschinenbetreiber stehen.

Erklärung der Definition von Suchneutralität am Beispiel Google[Bearbeiten]

Wenn ein User in der Suchmaske von Google einen Suchbegriff eingibt, bekommt er die für seine Anfrage relevantesten Ergebnisse zuoberst angezeigt. Erscheinen in dieser Suche aber ausschließlich Ergebnisse von von Google betriebenen Angeboten, etwa YouTube, Blogspot, Google Shopping oder Maps, während die Antworten anderer Plattformen auf die hinteren Ränke verdrängt werden, obwohl sie für den User die relevanteren Antworten gäben, erfüllen diese SERPs nicht das Prinzip der Search Neutrality.

Genau dieses Vorgehen wird Google seit den frühen 2000ern vermehrt vorgeworfen. Federführend im Streit um Googles Vorteilsnahme ist das britische Unternehmen Foundem, die im Juni 2006 erstmals eine Initiative gegen den Suchmaschinengiganten ins Leben gerufen haben. Foundem ist eine Produktvergleichsseite und damit, wie Yelp, TripAdvisor oder Kayak, nebst anderen, eine Vertical-Search-Suchmaschine. Das sind auf spezifische Segmente spezialisierte Suchmaschinen. Foundem sah sein Angebot in der horizontalen Suche, die Google bereitstellt, benachteiligt.

Zu Beginn des Jahres 2006 schloss Google die Vergleichssuchmaschine dreieinhalb Jahre lang mit Hilfe eines Algorithmus aus ihren Suchergebnissen aus, der gezielt vertikale Suchmaschinen aus den SERPs herausfilterte. Foundem verzeichnete einen signifikanten Traffic- und Umsatzverlust und prangerte dieses Vorgehen durch Google öffentlich an. Erst auf öffentlichen Druck hin, wurde Foundem wieder in die Suchalgorithmen Googles integriert. Seitdem war Googles Vorgehen Gegenstand diverser wettbewerbsrechtlicher Untersuchungen in den USA und der Europäischen Union.

Search Neutrality und Wettbewerbsrecht[Bearbeiten]

Während Foundem von den Suchergebnissen bei Google ausgeschlossen war, wurde die Google Produktsuche zunehmend auf den ersten Rankingpositionen platziert. Zwar blieben andere vertikale Suchmaschinen in Google erreichbar, doch seit dem Panda-Update 2011, schlossen sich auch andere Anbieter Foundems Vorwürfen gegen Google an.

“Mit Panda zielt Google nun auf viele, etablierte, aber auch neu entstehende Vertical-Search-Maschinen ab. Immer noch im Bewusstsein dessen, dass man bekannte Wettbewerber nicht öffentlich abstrafen kann, sind die Abwertungen durch den Panda-Algorithmus subtiler als die seiner Vorgänger: Obwohl betroffene Seiten nicht vollständig aus den Google-Suchergebnissen verschwinden, werden sie systematisch soweit herab gestuft, dass sie aus dem Blickpunkt der meisten User verschwinden und so wenig bis gar keinen Traffic über diesen wichtigen Kanal erhalten,” ließ Foundem in einer Publikation vom September 2011 verlauten.[1]

Bekannte Unterstützer des Foundem-Vorstoßes gegen mögliche Wettbewerbsverletzungen durch Google sind unter anderem Idealo, billiger.de, Style Lounge und Microsoft, die auf Bing das ehemalige Verbraucherportal Ciao! übernommen hatten, das seit 2018 eine vertikale Suchmaschine für Online-Shops ist. Die Bestrebungen dieser Anbieter hat dafür gesorgt, dass Google in Russland[2], Indien und Europa[3] wegen Verstößen gegen das Wettbewerbsrecht zu Strafzahlungen in empfindlicher Höhe verurteilt wurde. In den USA, dem Mutterland des Konzerns, gab es zuletzt im Dezember 2018 eine Anhörung der Google-CEOs im Kongress, das bislang (Stand: 03/2019) ohne Folgen für Google blieb.[4]

Ziel der Search Neutrality[Bearbeiten]

Mit einer gesetzlichen Regulierung der Suchneutralität will man erreichen, dass in den organischen Ergebnissen einer Suchmaschine nicht Seiten bevorzugt werden, die vom jeweiligen Search Engine Provider oder einem seiner Partnerunternehmen betrieben werden.

Man möchte sicherstellen, dass Kunden und Usern eine unverfälschte Auswahl an Informationsquellen bereitgestellt wird. Der Grundgedanke hinter diesem erklärten Ziel ist die Schaffung von Chancengleichheit für alle, die im Web Content, Apps, Shops und andere Angebote bereitstellen. Der User soll frei entscheiden können, welchen Suchergebnissen er sich widmet, ohne, dass die Suchmaschine die SERPs von vornherein die Auswahl durch Ausschluss und Benachteiligung von Konkurrenzanbietern oder die Bevorzugung eigener Produkte limitiert.

Das Problem Search Neutrality[Bearbeiten]

Die Vorstellung, wonach Neutralität Gleichbehandlung bedeutet, wurde vor allem im Diskurs um Netzneutralität geprägt. Doch im Kontext der Search Neutrality ist dieses Neutralitätsverständnis komplexer. Denn Suchmaschinenalgorithmen sind nicht darauf ausgelegt, neutral oder unparteiisch zu sein. Vielmehr sind sie darauf programmiert, Informationen zur Indexierung zu sammeln und zu speichern, Suchanfragen zu empfangen und die dafür relevanten Informationen zu filtern. Anhand dieser Befehle listen sie dann die Ergebnisse auf, in absteigender Reihenfolge von den relevantesten zu den am wenigsten relevanten Inhalten.

Das Problem ist, dass Relevanz an sich eine Form von Tendenz oder Voreingenommenheit darstellt. Gemäß der im Algorithmus implementierten Definition von Relevanz zwischen Suchanfrage und Suchergebnis, werden bei jeder Online-Suche bestimmte Ergebnisse bevorzugt, die die Reihenfolge des Rankings bestimmen. In der Suchmaschinen ist Relevanz so definiert, dass sie Ergebnisse anzeigt, die den User am wahrscheinlichsten zufriedenstellen werden. Das bedeutet aber auch, dass Relevanz abhängig ist von den Präferenzen des einzelnen Users. Sie ist also subjektiv. Und diese Subjektivität sorgt dafür, dass objektive Search Neutrality schwer zu realisieren ist.

Doch der Nutzer ist nicht der einzige Faktor, der eine wahrhaftige Search Neutrality problematisch macht. Technologie und Betreiber stehen gleichermaßen in der Kritik, weil sie ihre Suchmaschinen mit Algorithmen ausstatten, die bestimmte Werte und Daten schwerer gewichten, als andere. Große Suchmaschinen stehen immer wieder im Verdacht, bestimmte, vorzugsweise eigene Seiten anhand der entsprechenden Programmierung systematisch zu bevorzugen[5] anstatt ihren Algorithmen objektive Kriterien zugrunde zu legen, die die Suchergebnisse und Rankings generieren.[6]

Selbst weniger bekannte, alternative Suchmaschinen greifen auf Daten anderer Suchmaschinen zurück. Die Schweizer Metasuchmaschine etools.ch nutzt etwa Bing, Google, das russische Yandex und DuckDuckGo als Quellen. Wobei letztere Suchmaschine selbst ebenso auf Bing, Yandex und Wikipedia zurückgreift. Einzig die europäische Suchmaschine Qwant und ihr britisches Pendant Mojeek verfügen über eigene Algorithmen und Crawler.

Zusätzlich erschwert wird die Objektivität von Suchmaschinen dadurch, dass die Anbieter per Gesetz bestimmte Seiten aus den SERPs herausfiltern müssen. Andernfalls würden Usern, die sich mit den entsprechenden Keywords über den Einfluss von Pornografie auf Kinder informieren möchten, im Extremfall Seiten mit kinderpornografischen Inhalten in den Suchergebnissen angezeigt. Ein gewisses Maß an Subjektivität dient also auch dem Schutz - der User und der Suchmaschinenbetreiber.

Vorteile einer Regulierung[Bearbeiten]

  • Mit einer gesetzlichen Regulierung der Suchneutralität könnten Suchergebnisse userorientierter ausfallen, anstatt zum Vorteil von Seiten, die besonders zahlungskräftige AdWords-Kunden sind oder in anderer geschäftlicher Beziehung zum Suchmaschinenbetreiber stehen.
  • SERPs, die aufgrund objektiver Merkmale gefiltert werden, könnten den Fokus weg von bezahltem Ranking (Suchmaschinen-Advertising) hin zu qualitativem Content lenken. Bislang werden Links, für deren Positionierung bezahlt wurde, prominent an erster Stelle in den Suchmaschinenergebnissen angezeigt. Erkennbar sind solche erkauften Rankings am Hinweis “Anzeige”. Die Auferlegung einer Neutralität könnte Seitenbetreiber dazu animieren, mehr qualitativen Content bereitzustellen, statt für höheres Ranking in den organischen Suchergebnissen zu bezahlen.
  • Eine regulierte Search Neutrality könnte das Entstehen sogenannter Filterblasen zumindest verringern, indem der Algorithmus nicht die vom User in der Vergangenheit besuchten Seiten und Suchhistorien zugrunde legt. Bisher muss das von den Suchmaschinen aktiv gesteuert werden, indem sie in den Algorithmus eingreifen. Zuletzt hat YouTube angekündigt, mit solchen händischen Maßnahmen die Reichweite zweifelhafter Inhalte, wie etwa Verschwörungstheorien und Fake News, eindämmen zu wollen.[7]

Nachteile einer Regulierung[Bearbeiten]

  • Search Neutrality könnte personalisierte Suchen und die Darstellung entsprechender Ergebnisse unmöglich machen. Das wäre weniger nutzerfreundlich, als eine Suche, die aufgrund bisherigen Userverhaltens vorhersehbarere Ergebnisse liefert.
  • Eine regulierte Suchneutralität würde die Suchmaschinenbetreiber in ihrem Aktionsradius einschränken, sodass es für sie schwerer werden könnte, Rankings an eigenen, zugrunde liegenden Merkmalen auszurichten.
  • Die Transparenz der eigenen Suchalgorithmen, die mit einer Suchneutralitätsregulierung einher ginge, könnten Suchmaschinenbetreiber dazu zwingen, ihr Geistiges Eigentum offenlegen zu müssen. Eine solche Gesetzgebung könnte also in Konflikt mit anderen geltenden Gesetzen geraten.
  • Öffentlich gemachte Algorithmen, könnten deren Metrik angreifbar machen. Versierte Hacker könnten die Merkmale und Formeln der Suchalgorithmen manipulieren, um Spam-Seiten in den SERP-Rankings prominent zu positionieren.

Suchneutralität ist kein reines Google-Problem[Bearbeiten]

Untersuchungen haben heraus gefunden, dass Microsofts Bing mehr als zwei Mal häufiger eigene Inhalte in den vordersten Positionen seiner Suchergebnisse platziert, als Google dies tut.[8] Dass ausgerechnet Google im Fokus von Wettbewerbskommissionen steht, liegt vor allem daran, dass der Suchmaschinenbetreiber einen Marktanteil von mindestens 85 Prozent inne hat. Mehr Nutzer von Google sind von dieser Übervorteilung eigener Inhalte und bezahlten Contents betroffen, als Nutzer von Bing, weshalb das Interesse an Google-Verstößen gegen das Wettbewerbsrecht größer ist.

Einzelnachweise[Bearbeiten]

  1. Why Google’s Behaviour Makes Antitrust Sanctions Inevitable foundem.co.uk. Abgerufen am 18.03.2019.
  2. Russia fines Google for not complying with search results law: TASS reuters.com. Abgerufen am 18.03.2019.
  3. What is Search Neutrality? Is Your Search Engine Biased? choosetoencrypt.com. Abgerufen am 18.03.2019.
  4. How Congress missed another chance to hold big tech accountable theverge.com. Abgerufen am 18.03.2019.
  5. Hard-Coding Bias in Google "Algorithmic" Search Results benedelman.org. Abgerufen am 18.03.2019.
  6. Search Engine Bias and the Problem of Opacity/Nontransparency plato.stanford.edu. Abgerufen am 18.03.2019.
  7. YouTube announces it will no longer recommend conspiracy videos nbcnews.com. Abgerufen am 18.03.2019.
  8. Defining and Measuring Search Bias laweconcenter.org. Abgerufen am 18.03.2019.

Weblinks[Bearbeiten]