Wenn Du eine Webseite nicht erreichst oder ein Bild sich nicht öffnen lässt, liegt ein Fehler vor. Fehlerseiten und "Tote Links" sind ärgerlich – für Suchmaschinen und User.
Worin unterscheiden sich Rich Snippets und "normale" Snippets in den Google Suchergebnissen? Wie erreiche ich, dass meine Webpräsenz durch Bewertungen, Sterne, Fotos oder weiterführende Informationen aufgewertet wird?
Am 14. und 15. März 2017 war es wieder soweit: Von überall pilgerten Experten und Fans aus der Suchmaschinen- und Online-Marketing Branche nach München ins ICM.
Wer an SEO denkt, hat vermutlich zuerst technische Faktoren wie Ladegeschwindigkeit oder OnPage-Faktoren wie Content und Seitentitel im Sinn. Doch auch die Farben Deiner Webseite können für Deine SEO-Strategie relevant sein.
Alexa, der digitale und persönliche Sprachassistent in Amazon Echo, wird seit einigen Monaten bereits aktiv in Haushalten und Büros auch hierzulande eingesetzt.
Crawling und Indexierung sind zwei Voraussetzungen dafür, dass eine Webseite überhaupt in den Suchergebnissen gelistet wird.
Wer eine Webseite einrichtet, stößt früher oder später auf den Begriff "robots.txt". Diese Textdatei teilt Suchmaschinen-Crawlern mit, welche Bereiche einer Domain gecrawlt werden dürfen und welche nicht.
Bevor Du eine Webseite online stellst, prüfe genau, ob sie die juristischen Voraussetzungen erfüllt. Ein Link zum Datenschutz und zum Impressum muss auf jeder Deiner Unterseiten mit einem Klick erreichbar sein.
An sich sind 360-Grad-Fotos nichts Neues. Schon seit etlichen Jahren gibt es Fotografen und Dienstleister, die mit Hilfe von aufwändiger Technik und dadurch hohen Investitionskosten solche Bilder herstellen konnten.
Bei XML-Sitemaps handelt es sich um eine Liste die im XML-Format erstellt wird und die alle Unterseiten einer Webseite enthält. Eine XML-Sitemap gliedert eine Webseite wie ein Inhaltsverzeichnis einen Artikel.
Google ist dumm - Google weiß alles. Diese beiden Extreme bieten den Spielraum für unzählige Abstufungen, was die Einschätzung und Bewertung der "Künstlichen Intelligenz" von Google angeht.
Facebook Ads sind für viele nach wie vor eine Blackbox. Zu viele Möglichkeiten und scheinbar unendliche Variationen beim Targeting und bei der Erstellung von Werbemitteln. Ich gebe zu, da kann man leicht den Überblick verlieren.
Wer ein gutes Gespür dafür hat, was seine Nutzer interessiert, verfügt über eine wertvolle Sammlung an Informationen und Quellen. Diese bleiben jedoch allzu häufig ungenutzt, weil sie nicht systematisch abgelegt und deshalb schnell vergessen werden.
Ja es gibt sie; Webseiten bei deren Besuch man sich fragt: „Wie zum Teufel können die überleben? Die Seite ist so schlecht gestaltet, da findet sich doch niemand zurecht!“.
Der Googlebot hat für das Crawling einer Webseite nicht unendlich große Kapazitäten. Aus diesem Grund steht ihm nur ein begrenztes Crawl Budget zur Verfügung.