W3C

Das W3C (Abk.: World Wide Web Consortium) ist ein Ausschuss, der sich für einheitliche Technologien bei der Nutzung und Entwicklung des Internets einsetzt. Das Gremium wurde im Jahr 1994 am MIT in Cambridge, Massachussets (USA) gegründet.

Das Ziel des W3Cs besteht darin, technische Spezifikationen einheitlich zu gestalten und Richtlinien für die Entwicklung von Webtechnologien zu erarbeiten, sodass die Grundidee des World Wide Webs erhalten bleibt. Vereinheitlicht und standardisiert wurden bisher Technologien wie HTML, XML, CSS und andere Auszeichnungssprachen und Webservices, die täglich von Millionen Nutzern verwendet werden.

Allgemeine Informationen

Das W3C ist eine Mitgliederorganisation. Sowohl Wirtschaftsunternehmen, politische Einrichtungen als auch Universitäten und Forschungszentren sind in der Mitgliederliste zu finden. Hauptunterstützer des Projektes sind unter anderem die „U.S. Defense Advanced Research Project Agency (DARPA)“, die „Europäische Kommision“, die „European Research Consortium for Informatics and Mathematics (ERCIM)“ sowie die „Keio University“ in Japan. Diese sogenannten Hosts werden ergänzt durch Büros in der ganzen Welt, die die Arbeit des W3C organisatorisch unterstützen. Über 400 Mitglieder zählt das W3C mittlerweile, die auch durch bestimmte, festgelegte Beiträge die Arbeit ermöglichen. Auch Google, Facebook oder Apple beteiligen sich am W3C.

Initiator und Gründer des W3C ist Tim Berners Lee, der Vordenker und Begründer des Internets. Er wollte verhindern, dass das Internet sich in Bereiche aufteilt, die entweder nur kommerziellen oder akademischen Interessen dienen. Das Web als solches, betont Lee, ist für alle da und sollte nicht nur von allen genutzt, sondern ebenfalls editiert werden können. Ziel ist es, ein offenes System mit offenen, standardisierten Technologien zu erschaffen.[1]

Es wird also eine strikte Open Source-Philosophie vertreten. Als große Leistung von Lee wird es im Allgemeinen angesehen, dass er es geschafft hat, die grundlegenden Protokolle des Internets – man denke an Server-Clients-Architekturen, HTTP, HTML oder Webbrowser – als transparenten, demokratischen Prozess zu vereinheitlichen und letztendlich auch zu etablieren. Tim Berners Lee editierte übrigens auch die erste Website überhaupt, die in einer Kopie noch immer erreichbar ist.[2] Lee ist heute Vorsitzender des W3Cs, Professor am MIT und besitzt einen Lehrstuhl an der University of Southampton.

Funktionen

Das W3C gibt Empfehlungen aus: Sogenannte Recommendations beinhalten technologische Standards, die zum Beispiel eine Auszeichnungssprache definieren können. Diese Empfehlungen sind zustande gekommen, indem internationale Arbeitsgremien sich über einen langen Zeitraum miteinander über das WWW ausgetauscht haben. Dies geschieht über Mailinglisten, Websites, Kommentare, Ergänzungen und Vorschläge, die dann wieder bearbeitet werden, bevor sie veröffentlicht werden können.

In der Regel kann sich ein bestimmter Standard bis zu mehreren Jahren in Bearbeitung befinden. Zumal das W3C größer geworden ist und nicht, wie in der Anfangszeit, ein Standard in wenigen Monaten aufgrund weniger Mitglieder entwickelt werden konnte. Diese Empfehlungen sind gleichwohl keine ISO-Standards. W3C Protokolle haben lediglich den Status von Vorschlägen, die zur Diskussion gestellt werden. Als demokratisches Expertengremium genießt das W3C allerdings einen sehr guten Ruf, weshalb fast alle Protokolle mittlerweile de facto Standards darstellen.

Unter anderem wird SVG (Scalable Vector Graphics) als Standard für zweidimensionale Vektorgrafiken angesehen.

Bedeutung für SEO

Die Empfehlungen des W3C haben auch bei Webdesignern und SEOs einen relativ hohen Status. Dabei geht es einerseits um sauberen Quellcode, der über den Validator des W3Cs überprüft werden kann. Hier wird die Syntax unter die Lupe genommen. Sowohl HTML, CSS als auch Markup-Sprachen wie SMIL oder MathML können auf ihre Validität hin kontrolliert werden. Wenn der Quellcode valide ist, ist dies auch Signal für Suchmaschinen, dass dies eine vernünftig programmierte Website ist. Allerdings finden sich selbst bei den Startseiten von Google oder Microsoft Fehler im Quellcode, sodass bestimmte Fehler sicherlich keine Auswirkungen auf das Ranking einer Website haben.

Andererseits geht es bei den Empfehlungen auch um das semantische Web, denn das W3C entwickelt schon heute die technologischen Grundlagen für das Web 3.0. Beispiele, die sogar schon verwendet werden, sind Auszeichnungen mit Linked Data und RDF.[3] Hier auf dem Laufenden zu sein, kann für die Suchmaschinenoptimierung dienlich sein.

Einzelnachweise

  1. Wie das Web gewebt wurde heise.de. Abgerufen am 01.03.2014
  2. History to date w3.org. Abgerufen am 01.03.2014
  3. Kampf um die Deutungshoheit im Web: Schema.org vs. Linked Data heise.de. Abgerufen am 01.03.2014

Weblinks