0173. 312 99 38 s.radke@smart-interactive.de
Eure Angebote sind ehrlich: Man sieht, was alles für das Gesamtprojekt nötig ist. Ihr beschönigt nichts.
Großartig, wie Sie mit Ihrer stillen Konsequenz alles auf einen guten Weg bringen.
Wir haben in der Zeit so viel gelernt. Wir sehen das Thema Online Marketing jetzt mit ganz anderen Augen.
Nicht auszudenken, was ich alles falsch gemacht hätte, wenn ich einfach alleine gestartet wäre!
Sonja P. Radke bietet Beratungen, Vorträge und WorkShops zu benutzerfreundlichem Design, Website-Konzeption und Unternehmenskommunikation. Zudem schreibt sie über den Nutzen von SEO und authentischem Marketing.
Sonja P. Radke
0173. 312 99 38
si-blog Suchmaschinenoptimierung Technische Suchmaschinenoptimierung (Technisches SEO)
Wer einmal angefangen hat, sich mit Themen rund um Suchmaschinenmarketing zu beschäftigen, wird schnell festgestellt haben, dass hier eine Vielzahl von Aspekten und Zusammenhängen von allen Projektbeteiligten zu beachten sind: Konzepter, Web-Designer, Programmierer und Online-Redakteur bilden ein strategisches und operatives Team.
Der Redakteur schreibt einen Beitrag, welcher mit wichtigen Keywords an den richtigen Stellen versehen sein sollte, vor allem in den Meta-Tags (title und description) und Zwischenüberschriften (Headlines, Abstufungen h1 bis h4), Konzepter und Designer haben sich vorab abgestimmt, wie und wo auf der Website die Beiträge erscheinen, und der Programmierer hat dafür gesorgt, dass die programmiertechnischen Rahmenbedingungen, die vom Redakteur nicht beeinflusst werden können, semantisch auch für Suchmaschinen passend aufgebaut sind, insbesondere bezüglich der Übersichtsseite, auf der die Artikel angeteasert werden.
Die technische Suchmaschinenoptimierung ist also nicht das alleinige Instrument zur erfolgreichen Platzierung „ganz oben“ in den Suchergebnissen von Google & Co. Dennoch ist sie ein wichtiger Baustein zur Suchmaschinenoptimierung und kann viel Aufwand an anderen Stellen sparen.
Der Programmierer – oder oft auch Web Developer genannt – schafft die technischen Voraussetzungen, um den Inhalt (Text und Bilder) SEO-gerecht anlegen zu können.
Ein guter Zeitpunkt für den Hinweis, dass sich die Aufgabenbereiche nicht immer klar voneinander abgrenzen lassen. In der Regel liegt einer Website ein CMS (ContentManagementSystem) zugrunde, was dem Redakteur einen größeren Verantwortungsbereich zuweist, als wenn der Programmierer die Texte erhalten würde und noch die Möglichkeit hätte, auf die Textformatierungen und Meta-Tags selbst Einfluss zu nehmen. Google ist es letztendlich egal, ob die Webseite per CMS oder ohne generiert wurde, und ob ein Programmierer oder Redakteur die Reihenfolge der Zwischenüberschriften falsch aufgebaut hat (z.B Headline 2 vor Headline 1 oder nach Headline 1 direkt Sprung zu Headline 3), die Wertung lautet „technisch inkorrekt“.
Nicht nur Browser (Firefox, Chrome, Safari), auch Suchmaschinen wie google finden korrekten, sprich validen Quellcode gut. Ein Grund mehr, auf einen fehlerfreien Aufbau von HTML und CSS (Stylesheets) zu achten, sprich, Layer (div-Tags), Listen, Absätze, Image-Tags in richtiger Abfolge, mit schließenden Tags usw. anzulegen. Wobei „richtig“ nicht diskussionsfrei ist, denn mit dem W3C-Standard gibt es zwar seit 1994 den Versuch, einheitliche Web-Standards zu etablieren, letztendlich sind es aber nur Empfehlungen, denen die Browser-Hersteller nur bedingt folgen. Zudem kommen diese Empfehlungen der tatsächlichen Entwicklung nicht ganz hinterher, z.B. bezüglich der neuen Standards in HTML5 und CSS3. Heißt in der Praxis: was ein W3C-Validator als fehlerfreien und somit validen Programmiercode bewertet, ist nicht immer state-of-the-art, oder anders herum: Was vom W3C-Validator als fehlerhaft bewertet wird, kann neuer HTML5-Standard sein, oder aber auch „alter Standard“ für ältere Browser.
Das Kurzfazit lautet: nicht so streng. Heißt: google will sich grundsätzlich an den (neuesten) Standard-Strukturen orientieren können, die sollten also vorhanden sein, wenn aber mal ein schließender Tag fehlt, fällt das nicht sonderlich ins Gewicht. Wichtiger als ein Null-Fehler-Validator-Ergebnis ist für google ein schlanker HTML-Code, also mit möglichst wenig „Drumherum“ um möglichst schnell zum Inhalt zu kommen, der google (und die User!) am meisten interessiert.
Auch Javascript / jquery ist für google eher Ballast, der vorrangig für Präsentationseffekte (slideshows, show-hide-Effekte, u.a.) eingesetzt wird, das Laden des Inhaltes aber verzögert. Ein sparsamer Einsatz oder gar kompletter Verzicht auf jquery ist aus SEO-Sicht also begrüßenswert, allerdings nicht gerade hip. Was uns wieder mal daran erinnert, dass es nicht darum geht, alles dem Thema SEO unter zu ordnen, aber stets im Hinterkopf zu haben und dann die Priorität setzen, in dem Fall User-hip (jquery) gegenüber SEO-cool (kein jquery).
Auch Suchmaschinen legen auf gute Usability und positive Nutzererlebnisse (User Experience) wert. Und hierzu tragen moderne Animations- und Präsentationsformen mittels jquery ganz erheblich bei. Es gilt also, diese Instrumente mit Bedacht einzusetzen: Dort, wo sie das Nutzererlebnis wirklich positiver (zum Beispoiel übersichtlicher und informativer) gestalten und somit die Kontaktaufnahme oder andere Conversions steigern können.
Neben dem Text sind Bilder die gebräuchlichsten Inhaltselemente und werden von google entsprechend mit bewertet. Aber auch wenn eine Bilddatei für ein menschliches Auge mehr sagen kann als tausend Worte, google hätte doch lieber Worte. Und die kann man einem Bild auch zuweisen, was mit dem Bild-Datei-Namen anfängt: eine JPG-Bild-Datei mit dem Namen „rote-schnecke-auf-gruenem-blatt.jpg“ ist nun mal aussagekräftiger als „DCS12345.jpg“. Weil der Dateiname aber originär seitens der Kamera nicht dazu gedacht war, das Bildmotiv zu beschreiben, gibt es dafür einen (eigentlich: sogar zwei) Tag, den alt-Tag, den man immer sinnvoll befüllen sollte, was ansonsten zu Recht als Fehler gewertet wird, auch von google.
Eine wichtige Aufgabe des Online-Redakteurs oder Texters ist deshalb auch das Schreiben von Texten für die Alt-Texte aller einzusetzendenden Bilder.
Und dann gibt es noch die IPTC-Metadaten oder Exif-Daten, welche Informationen wie Fotograf, Ort, Motiv, Aufnahmedatum usw. enthalten. Jede Digitalkamera speichert standardmäßig diese Daten, die man an der Kamera, z.B. den Fotografen, selbst voreinstellen kann – und diese können von google, aber auch CMS-Systemen wie WordPress ausgelesen werden. Offiziell spielen sie für google noch keine Rolle, sind nur „potentieller Rankingfaktor“ (Matt Cuts 2014), was wohl auch daran liegen dürfte, dass auch google weiß, dass dieses Thema bei kaum einem Webdesigner, Programmierer oder Content-Manager auf dem Schirm ist und deshalb kaum verwertbare Informationen enthält. Aber wer das auf dem Schirm hat, hat an dieser Front evtl. die Nase leicht vorn.
In der Praxis sieht das eher so aus:
In diesem Falle sind die Meta-Daten der Kamera, z.B. Aufnahmedatum, übernommen worden und als Information grundsätzlich auch über die Webseite abrufbar. Das ist für google (und Webseiten-Besucher) durchaus interessant, manchmal will man als Webseiten-Betreiber aber gar nicht preis geben, zu welchem Datum und zu welcher Uhrzeit ein Foto entstanden ist.
Anderer Praxis-Fall:
Die JPG-Datei wird vom Web-Designer nicht im Original bearbeitet sondern ein Ausschnitt von dem Motiv in Photoshop als Ebene übernommen, z.B. als Teil einer Webdesign-Vorlage, und daraus wird dann von dem Programmierer eine neue JPG-Datei generiert. In diesem Falle gehen die IPTC-Metadaten der Kamera verloren und es werden die Daten von Photoshop übernommen, die aber meist nichts zur Herkunft des Bildes aussagen.
Die beiden für Suchmaschinenoptimierung wichtigsten Meta-Tags sind Seitentitel und Beschreibung (title und description), die immer sinnvoll befüllt sein sollten.
Auch das ist eigentlich wieder eher ein redaktionelles und kein technisches Thema, weil aber diese Inhalte nicht (direkt) für „normale“ Menschen in der Website sichtbar sind sondern sich unter der Motorhaube (im Quellcode) befinden, werden sie meist als technisch empfunden, und sollen an dieser Stelle nicht unerwähnt bleiben. Wichtig ist, sich auf die vorgegebene Anzahl der Zeichen zu begrenzen (55 für title und 150 für description) und die passende Formulierung mit den entsprechenden Begriffen (Keywords) zu finden.
Das ist manchem Redakteur, der nicht gewohnt ist auch für eine Suchmaschine zu schreiben, zu technisch-anstrengend. Dennoch ist es wichtig: Für Menschen ergibt sich bei einem Titel wie „Drachenflieger über der Wahner Heide“ aus dem dann folgenden Kontext des Textes, dass es hier um das Thema „Libellen“ geht. Für eine Suchmaschine ist das nicht so einfach. Hier würde die Maschine anhand des Titels einen ganz anderen Zusammenhang herstellen.
Gerade bei Aufbau und Gestaltung des Textes mischen sich der technische und der redaktionelle Aufgabenbereich. Denn einiges erkennt man als Redakteur wieder, was man von seiner Office-Anwendung (beispielsweise Word) gewohnt ist, aber einiges ist auch etwas anders. Absätze, Listen, Tabellen, Zwischenüberschriften gibt es auch in Word, und die Formatierleiste in einem CMS wie WordPress erinnert stark an die Formatierleiste von Word. Und dann hört sich „WordPress“ auch noch fast wie „Word“ an.
Nun werden aber gerade die Zwischenüberschriften (Headlines) leider gerne außer Acht gelassen, weil sie für den Print-Bereich nicht soo gebräuchlich und wichtig sind, und dann gibt es auch noch mehrere Abstufungen (H1, H2, H3,…), die auch genutzt werden sollten, und zwar in der richtigen hierarchischen Reihenfolge (keine H3 vor einer H2, siehe oben). Und weil google strukturierte Daten gut findet, sollte man auch Gebrauch davon machen, z.B. durch den Einsatz von Listen, und zwar nicht in Form manuell vorangestellten Spiegelstrichen sondern als „richtige“ Listen, mit Bulletpoints. Will man einen Begriff hervor heben, sollte man Fettdruck verwenden statt Unterstrich, denn fett (bold) bedeutet für google „wichtig“, Unterstrich (underline) eher Dekoration. Die gute Nachricht lautet: das sind auch schon die wichtigsten Regeln! Und: sie sind google-freundlich WEIL sie lesefreundlich sind. Sie schreiben also sehwohl für Ihre Leser und – fast wie nebenbei – auch für eine bessere Suchmaschinenoptimierung.
Nicht ganz passend zum Stichwort „Formatierung“ ist das SEO-Thema „interne Verlinkungen“. Es sei hier aber auf folgenden Gründen angehängt:
Schema.org / item-properties ist ein noch relativ neues Feature um Daten zu strukturieren und auch noch nicht so ganz im Bewusstsein aller Redakteure und Web-Programmierer angekommen. Wahrscheinlich, weil es keine visuellen Auswirkungen hat und die Logik nur von jemandem erfasst werden kann, der auf die Logik schaut, eben von einer Suchmaschine.
Um die strukturierte Darstellung von Datensätzen, v.a. zu Personen, Unternehmen, Adressdaten.
Klassisches Beispiel Webseiten-Footer:
Dort werden gerne die Adress- und Kontakt-Daten des Unternehmens untergebracht, und es ist klar, welche Daten zu erwarten sind: Firmenname, Straße, PLZ, Ort, Telefon, Email usw. Und deshalb kann man genau diese Daten auch genauso mit entsprechenden Tags kennzeichnen. Wenn „Stromberg AG“ als Firmenname ausgezeichnet ist und „Hengasch“ als Ort, dann ist das klar und google muss nicht lange rätseln, ob es sich um einen Berg, eine Fernsehserie oder ein Körperteil handelt. Noch hat google nicht klar gesagt, dass schema.org eine spürbare Relevanz für das Ranking spielt, es ist aber davon auszugehen, dass es bereits so ist. Und mittelfristig ist davon auszugehen, dass es für den Rankingfaktor eine noch größere Rolle spielen wird.
Schon seit längerem ist bekannt, dass Textinhalt, der in der gleichen Formulierung an verschiedenen Stellen im WorldWideWeb auftaucht, von google negativ bewertet wird und deshalb unbedingt zu vermeiden ist. Das ist durchaus logisch und konsequent gedacht: denn nur so, wenn es diesen Content nur an einer einzigen Stelle gibt, kann man sicher sagen, welches das Original ist. Verweise und Links auf dieses Original kann es ja von 1000 anderen Stellen aus geben. Besser aber keine Kopie.
Eine kurze Antwort lautet: weil copy-paste halt einfacher ist als selber Texte zu schreiben. Es gibt aber auch noch komplexere Antworten.
Manchmal taucht der Inhalt auch unbeabsichtigt mehrmals auf oder ein Webseiten-Betreiber ist sich gar nicht bewusst, dass google den Inhalt mehrfach sieht. So sind für google „www.smart-interactive.de“ und „smart-interactive.de“ zwei verschiedene Web-Auftritte. Ist der Webserver so eingestellt, dass man unter diesen beiden Web-Adressen auf ein und dem selben Web-Auftritt landet, ist gleich die ganze Website Duplicate Content – gleich dicker Punktabzug für ein im Grunde nur kleines technisches Versäumnis. Hier gibt es keine Regeln, welcher Provider wie mit dem Phänomen umgeht, ob standardmäßig umgeleitet wird, oder man sich selber darum kümmern muss. Es ist adher wichtig, das dies manuell vom Programmierer geprüft und falls erforderlich angepasst wird.
Klassischer Fall: News-Blog.
Neben der eigentlichen Seite mit dem vollständigen News-Artikel gibt es noch mindestens eine Stelle, meist mehrere, von welcher aus dieser Artikel angeteasert und verlinkt ist. Zuerst auf der News-Übersichtsseite.
Hier tauchen Titel und Teaser-Text, meist 2-3 Sätze, auf, die dann auch genau so auf der Artikel-Seite selbst stehen – das ist schon doppelter Inhalt, streng gesehen! Und wenn der Artikel noch woanders angeteasert wird, auf der Startseite z.B. oder unter einer weiteren News-Kategorie, sogar mehrfacher Inhalt.
Zum Glück sieht google das offenbar nicht so streng. Es wurde mal darüber diskutiert, ob das einen spürbaren Punktabzug gibt. In der Praxis lässt sich dies aber kaum berücksichtigen. Denn wer schreibt schon, wenn er endlich einen Blog-Artikel mit ordentlichem Teaser-Text geschrieben hat, diesen Teaser-Text noch in drei weiteren Varianten? Abgesehen davon, dass dafür erstmal die technischen Voraussetzungen da sein müssen. Ein CMS generiert in der Regel aus dem Anfangstext des Artikels automatisch einen Teaser-Text, der natürlich dann immer derselbe ist. Man bräuchte also mehrere Eingabefelder für die einzelnen Teaser, und so ein CMS haben wir bei den üblichen Software-Entwicklern noch nicht gesehen – (Allerdings haben wir mal selbst so etwas programmiert. Zu einer Zeit, als es noch unklar war, ob google „das so haben will“ oder ob das in diesem speziellen Fall doch nicht als „böser Duplicate Content“ gewertet wird…)
Wichtiger ist, dass der News-Artikel von allen Stellen, an denen er aufgerufen wird, immer nur unter genau einer URL auftaucht. Also nicht unter „www.hallo.de/kategorie-eins/toller-artikel/“ und dann nochmal unter „www.hallo.de/kategorie-zwei/toller-artikel/“. Entweder oder. WordPress zum Beispiel weiß das und sorgt entsprechend dafür, dass das nicht passiert. Bei Eigenbau-Projekten sollte man das nochmal checken.
Diese stellen in noch einer weiteren Hinsicht einen Sonderfall dar, wegen ihrer Dynamik. Abgesehen davon, dass die angeteaserten Inhalte ständig wechseln, weil ständig neue Artikel dazu kommen, (so sollte es jedenfalls sein), ändert sich auch die Anzahl der Übersichts-Seiten.
Obwohl sowohl die erste Seite (www.hallo.de/kategorie-zwei/) als auch die zweite (www.hallo.de/kategorie-zwei/seite-2) und dritte (www.hallo.de/kategorie-zwei/seite-3) vom Prinzip her genau das gleiche machen, nämlich Inhalte anteasern, aber diese nicht vollständig darstellen. Darum ist es für eine Suchmaschine interessant zu wissen, dass es sich um eine solche Übersichtsseite bzw. Folgeseite handelt, und sie daher nicht versuchen soll, diese Seite nach normalen Inhaltskriterien zu bewerten.
Das teilt man über den so genannten Canonical-Tag mit, und über entsprechende Tags (no-index, no-follow) in den vor-zurück-Verlinkungen zwischen diesen Seiten. WordPress macht das nicht ganz automatisch. Wenn man das Yoast-Plugin installiert hat, was zu empfehlen ist, muss man aber nur noch daran denken, unter den zahlreichen Einstellungen den entsprechenden Haken zu setzen. Dann passt das schon – es sei denn, der Theme-Entwickler hat was anderes eingestellt.
Wenn man dann doch mal den Fall hat, eine Seite auf eine andere umleiten zu müssen, weil vielleicht ein Leistungsangebot weggefallen ist oder ein url-Pfad Schreibfehler enthält, dann geht das technisch über das so genannte RewriteModul, per htaccess-Datei. Wichtig für google hierbei: dass es eine 301-Weiterleitung ist. Programmierer wissen das.
Ein weites Feld. Viele Räder, an denen man drehen kann, mit unterschiedlich starken Auswirkungen und unterschiedlich hohem Aufwand. Verdient aber inzwischen um so mehr Beachtung, weil es inzwischen offizieller Ranking-Faktor bei google ist. Ein insgesamt techniklastiger Punkt, bei dem aber wie so oft auch andere Gesichtspunkte mit rein spielen. Ein schlicht gestaltetes Webdesign, für dessen Umsetzung ein Minimum an HTML- und CSS-Code nötig ist, macht eine Seite natürlich schneller. Und wenn Design und Konzeption wenige und nur kleine Bilder vorgesehen haben, z.B. weil sich die Botschaft der Website sich nicht in Bildern ausdrücken lässt, oder weil es keine (brauchbaren) Bilder gibt, ist der größte Geschwindigkeits-Fresser schon vorab ausgeschaltet. Und wenn man dann noch komplett auf Javascript / jquery verzichten kann, weil es aus Conversion-Gründen für dieses Projekt keinen Bedarf für Slideshows und andere smarte Effekte gibt, dann lohnt es sich kaum noch, über weitere Optimierungen nach zu denken, weil die Seite auch so schon schnell genug ist. Aber zum einen sind die Anforderungen in den seltensten Fällen gleich zu Anfang derart spartanisch, zum anderen gibt es immer noch irgendwo eine Zehntelsekunde, die sich mit recht wenig Aufwand heraus holen lässt.
O.k., wir sind ein Web-Entwickler und wollen das Thema angehen, wo fangen wir an? Entweder mit den üblichen Verdächtigen, die teils schon genannt sind (Bilder, schlanker Quellcode,…), oder direkt mit den Empfehlungen des PageSpeed-Tools von google. Damit kann man eine Webseite online analysieren lassen, bekommt Handlungsempfehlungen ausgesprochen und kann sich dann überlegen, wie konsequent man diese umsetzt, sprich, worauf man im Zweifelsfall bereit ist zu verzichten, um auf den Wert Null zu kommen. Es ist übrigens nicht gesagt, dass, wenn man nicht auf Null kommt, das messbare Auswirkungen im Ranking hat. Grüner Bereich reicht auch schon.
Je höher die Anforderung an die Bilder, die ganze Monitorbreite ausfüllend, und trotzdem qualitativ hochwertig, desto mehr lohnt es sich, hier möglichst viel an Aufwand zu investieren. Erste Maßnahme: auf 72dpi runter gehen, falls man eine höhere Auflösung vorliegen hat. Als Nächstes: Ausprobieren, wie weit man bei einem JPG mit der Qualität runter gehen kann, als Faustregel kann man auf 80% gehen, ohne sichtbare Qualitätseinbußen, aber mit deutlichen Gewichtseinsparungen. Entweder man belässt es dann bei diesem überschaubaren Aufwand, oder man schraubt weiter. Mit Photoshop kommt man an dieser Stelle aber nicht weiter, weil dieses Tool mehr auf Qualität (für den Print-Bereich) denn auf Effektivität (im Web-Bereich) ausgerichtet ist. Ab hier kann man andere Programme ausprobieren, die auf Geschwindigkeit spezialisiert sind, muss sich aber bei Auswahl und Einstellungen ein wenig Gedanken über die eigenen Prioritäten machen, z.B. ob man auf die IPTC-Metadaten verzichten will. Als ein Tool zum Ausprobieren sei Jpegmini genannt, welches Gewichtsreduzierungen von bis zu 70% ohne Qualitätsverlust verspricht.
Für vier bis sechs EUR pro Monat bekommt man ein Web-Paket, was grundsätzlich fast alles kann was man braucht (PHP/MySql-Datenbank, htaccess,…), allerdings ist dies in der Regel ein Sharedhosting-Paket, bei welchem man bezüglich Performance abhängig ist von seinem Nachbarn und dessen Kapazitätsverbrauch. Besser, man investiert direkt in eine eigene Server-Variante (Dedicated Server), liegt dann bei ca. 20 EUR im Monat. Je nach Projektumfang, z.B. bei Shop-Systemen, lohnt es sich, gar nicht auf ein Paket zu setzen sondern mit dem technischen Support des Providers über noch individuellere Lösungen zu sprechen, mit einem entsprechend höheren Finanzaufwand.
Generell möglichst schlank halten, ein paar Grundregeln beachten, und über ein paar weitere Dinge nachdenken. Jquery wenn möglich am Ende und nicht zu Anfang einbinden, Jquery- und CSS-Dateien möglichst komprimieren (minify), auf Leerzeichen, Leerzeilen und Kommentare möglichst verzichten. Kommt ein CMS zum Einsatz (was meistens der Fall ist), wird die Sache etwas unüberschaubarer, weil themes, Plugins (WordPress) und Extensions (TYPO3) zum Einsatz kommen, die oftmals nicht auf Ladegeschwindigkeit ausgerichtet sind. Hat man mal eben drei Plugins installiert, ist die Seite nicht selten nur noch halb so schnell wie vorher, weil 13 weitere jquery-Dateien im Header eingebunden wurden. Es gibt zwar auch Pagespeed-Plugins, die teils auch gute Dienste tun, aber den Vorsatz, möglichst wenige Plugins einzusetzen, um das Konfliktpotential möglichst gering zu halten, hat man damit auch schon wieder über Bord geworfen.
Seit April 2015 ist auch die Mobil-Tauglichkeit einer Webseite offizieller Ranking-Faktor bei google. Mit welcher Durchschlagskraft lässt sich noch nicht so genau beziffern, es wird aber zunehmend eine Rolle spielen, selbst für solche Webseiten-Betreiber, die von GoogleAnalytics bestätigt bekommen, dass unter 5% der Webseiten-Besucher über Smartphones kommen, und auch nicht zur eigens definierten Zielgruppe gehören. Auch hier hat google wieder ein eigenes Analyse-Tool mit Empfehlungen zur Mobile-Optimierung bereit gestellt, denen man nicht sklavisch folgen sollte, aber durchaus beherzigen darf.
Jedenfalls kommt man um das Thema nicht herum, entweder man ignoriert es trotzdem, wofür es auch Gründe (zugegeben eher trotzige) geben kann (Zielgruppe, Aufwand), oder man nimmt sich dessen an. Und natürlich ist es wesentlich einfacher, ein neues Projekt direkt Mobile-friendly zu konzipieren, als ein bestehendes auf mobile umzukrempeln. So oder so gibt es verschiedene Herangehensweisen. Das prominenteste Stichwort in Zusammenhang mit Mobile-friendly-Websites ist „Responsive“, was aber nicht ganz den Kern trifft. Denn Responsive heißt, dass eine Webseite für alle möglichen Bildschirme passen soll, auch für Smartphone-Screens, aber eben auch für große Desktop-Bildschirme. Die Bandbreite ist inzwischen unüberschaubar und ein Ende ist noch nicht absehbar, es gibt bei Konzeption und Gestaltung einer Webseite alle möglichen Optionen zu berücksichtigen, was aber kaum in einem ersten Planungsschritt gelingt, es sind viel mehr Absprachen und Plan-B bis Plan-x-Schritte notwendig als „damals“ (vor 3-4 Jahren), was auch ein Überdenken des gewohnten Workflows innerhalb des Projektteams notwendig macht.
Ein Weg ist derjenige, verstärkt auf Vorlagen zurück zu greifen, welche bereits Vorarbeit geleistet und alle möglichen Optionen berücksichtigt haben. Für Responsive sind das Frameworks wie Bootstrap und Foundation, welche ein dynamisches HTML- und CSS-Grundgerüst liefern. Responsive ist aber, wie bereits erwähnt, nicht gleich Mobile-Version, dafür gibt es noch andere Wege, so kann es Sinn machen, über eine eigene Mobile-Version nach zu denken, weil inhaltlicher Aufbau und Design einer Desktop-Website nicht für einen Smartphone-Screen umzusetzen sind. Ist ein CMS im Einsatz, gibt es für WordPress z.B. eine Vielzahl von Plugins, mit denen man recht schnell eine Mobile-Version auf dem Schirm hat. Grundsätzlich, denn je mehr Individualität man sich bei theme- und Template-Entwicklung für die Desktop-Version geleistet hat, um so mehr Aufwand muss man jetzt betreiben, um das auch für die Mobile-Version nach zu ziehen. Normal: Individualität bedeutet Aufwand. Google ist das eher egal, ob ein responsive-framework oder ein WordPress-Plugin dahinter steckt, Hauptsache die google-Kriterien sind (weitgehend) erfüllt.
Wer sich keine Gedanken darüber machen muss, dass die über die eigene Website verbreiteten und generierten Daten irgendwo Verwendung finden könnten, wo es nicht vorgesehen ist (Google ist bekanntlich kein Datenschutz-Verein!), für den empfiehlt es sich, ein google-Konto einzurichten und auf die Dienste zurück zu greifen, vor allem die GoogleSearchConsole (hieß vorher googleWebmasterTools). Darüber kann man google nicht nur einige Details zur eigenen Website mitteilen sondern auch Feedback und Empfehlungen seitens google abfragen, z.B. beim Aufspüren von fehlerhaften Links (broken links) und 404-Fehlern. Bei dynamischen Webseiten mit regelmäßig wechselndem und aktualisiertem Inhalt ergibt sich das fast zwangsläufig, da für google eine möglichst geringe Fehlerquote ein Ranking-Faktor ist, lohnt es sich, hier regelmäßig rein zu schauen und aufzuräumen. Mit dazu gehört auch eine Sitemap, in Form einer Xml-Datei, welche die Webseiten-Struktur wieder gibt und es google erleichtert, diese zu indexieren. Nicht zu verwechseln mit einer Sitemap, wie man sie als Webseiten-Besucher oft als eigene Seite findet und über welche man die gesamte Webseiten-Struktur im Überblick erhält, was gerade bei umfangreichen Webseiten mit Sinn macht. Aber auch diese Sitemap ist nicht nur für Menschen sondern auch für google interessant, weil sie interne Links auf alle Webseiten-Inhalte enthält, ist also auch ein SEO-Faktor.
Und wenn man Genaueres über das Verhalten seiner Webseiten-Besucher wissen will, um Erkenntnisse für die Marketing-Strategie zu gewinnen, lohnt sich der Einsatz von googleAnalytics. Das bringt zwar keinen Schub direkten Schub für das Ranking, die Erkenntnisse können aber helfen, anschließend die Inhalte so zu fokussieren, dass sowohl Besucher als auch google positiv bewerten.
Für lokale Unternehmen gibt es mit Google My Business eine weitere Möglichkeit, sich in den Suchergebnissen zu platzieren, dafür braucht man keinen technischen Programmierer, es sei hier dennoch erwähnt, der Vollständigkeit halber und weil dieses Thema doch gerne immer wieder an die Technik-Abteilung weiter gegeben wird.
SEO an sich ist ein weites Feld, technisches SEO als ein Teil davon immer noch, es lohnt sich aber, zumindest mal rein zu schnuppern, weil man mit einigen wenigen aber wichtigen Maßnahmen bereits viel erreichen kann. Und wenn man noch mehr erreichen will, kann man sich immer noch tiefer in das nächste Thema bohren. Wer sich lieber mit Bildqualität und Bildgröße beschäftigt, findet an dieser Front genug Spielraum für Experimente, wer eher am Webserver oder Jquery-Code rumschrauben will tut eben dies. Der Ganzheitliche und komplette Ansatz ist natürlich immer noch der beste, aber dazu muss sich nicht nur der Web-Programmierer damit beschäftigen, wie gesehen, weil die Übergänge zu den anderen Disziplinen fließend sind, bis hin zum Webseiten-Inhaber selbst. Wer aber genug Neugier und Zeit mit bringt, sich bezüglich SEO von uns beraten zu lassen, dem helfen wir natürlich gerne weiter, spannend ist das Thema auf jeden Fall.
Das fanden auch Stephan Czysch, Benedikt Illner und Dominik Wojicek von den SEO-Spezialisten Trust Agents, die darüber gleich ein Buch geschrieben haben: „Technisches SEO – mit nachhaltiger Suchmaschinenoptimierung zum Erfolg“. Auch wir (smart interactive) holen uns nach wie vor gerne aktuelle Empfehlungen von Stephan Czysch und seinen Kollegen ein, es gibt genügend andere Themen rund Websites und Web-Marketing, mit deren Entwicklung wir uns in der Zwischenzeit beschäftigen können – z.B. Conversion.
Sonja Radke befasst sich seit 1996 mit Konzeption, Design und Umsetzung von Corporate-Websites. Sie betreibt seit 2002 smart interactive - Agentur für benutzerfreundliche Medien als interdisziplinäres Netzwerk selbständiger Medienfachleute.
Zudem führt sie Beratungen und Seminare zu Website-Konzeption und benutzerfreundlichem Design durch, schreibt über den Nutzen von SEO und authentischem Marketing und ist Mitglied des German UPA (Berufsverband der Usability und User Experience Professionals) und der Interaction Design Association.
Sie erreichen sie über:
0173. 312 99 38
s.radke@smart-interactive.de
Menschen erreichen