By rlds, 13 November, 2020
Image
Crawling and acquiring

Website-Indizierung überarbeitet

In den vorhergehenden Artikeln haben wir uns kurz mit dem Web-Crawling und den SEO-Indizierungstools befasst. Die Liste wird jedoch erweitert und die Methoden aktualisiert. Wir haben die wichtigsten Indexierungs- und SEO-Überwachungsplattformen erläutert, wie z.B:

Die Tools, die Ihnen beim Navigieren in der Inhaltserstellung helfen. Content-Ersteller müssen aufpassen, es gibt bestimmte Aspekte, die Sie aus der Google-Indizierung herausfallen lassen könnten:

  • 302 (vorübergehende) Weiterleitungen
  • duplizierter Inhalt (über die index.php-Handhabung)
  • Spamming (selten)

htaccess-Handhabung

Je nachdem, welches CMS Sie verwenden, besteht die übliche Maßnahme darin, eine Umleitung Ihrer Website mit oder ohne WWW über die folgenden Wege abzuwickeln:
RewriteEngine On
RewriteCond %{SERVER_PORT} 80
RewriteRule ^(.*)$ https://mysite.com/$1 [L,R=301]

Forschung mehr auf die .htaccess Umleitungsmethoden. Einige Hosting-Provider erlauben es, dies von der Cpanel-Schnittstelle aus zu tun, was nicht unbedingt mit der manuellen Dateiarbeit verbunden ist.

spiders crawl

Sitemaps

Generieren und hochladen Sie Ihre .xml Sitemap-Datei in Ihren /public_html-Ordner. Verwenden Sie eine solche Sitemap generiert über:

Dies ist alles zu tun, damit die Suchmaschinen Ihre Website schneller durchforsten können. Google Search Console und Bing Webmaster Tools dienen als klassische Beispiele für ein solches Überwachungstool. Benutzen Sie alternative Suchmaschinen und verlassen Sie sich niemals auf Google allein (seine Indexierungspolitik ist ebenfalls anfällig). Use search engines and never rely on Google alone (it's indexing is tricky too).

Robots.txt erlaubt

Robots.txt erlaubt es den Crawler-Bots, bestimmte Verzeichnisse Ihrer Website ein- oder auszuschließen. Die Suchmaschinen-Bots werden durch ihre Befehle gesteuert. Um Ihre generierte XML-Sitemap zu indizieren (für die Such-Bots sichtbar es zu machen), fügen Sie einfach die folgenden Zeilen am Ende Ihrer robots.txt-Datei hinzu:

Allow:
# Sitemap files
Sitemap: https://mysite.com/sitemap.xml

Sie können bestimmte index.php-Verzeichnisse deaktivieren, wie z. B.:

Disallow: /index.php/admin/

Normalerweise wird dies alles standardmäßig von Ihrer CMS-Installation verwaltet. Die gängigsten Robots.txt-Praktiken von ihrer offiziellen Website sind hier. Wird Ihre robots.txt von den Suchmaschinen-Bots gut gelesen? Probieren Sie jetzt den schnellen, Online-Tester robots.txt aus.

robo-server

Die Serverseite

Die Server-Optimierung liegt meist auf der Anbieterseite (Reseller) und nicht auf der Client-Seite. Sie mieten bereits den gepackten und laufenden Server. Einige Funktionen sind jedoch noch optional.

Stellen Sie sicher, dass Ihr Hosting-Provider Sie mit der neuesten PHP-Version auf dem Laufenden hält, sodass Sie erlaubt den APCu-Cache auswählen können (kommt mit der Version 7.3 >). Auch, um einen Gzip zu verwenden, über das Website-Optimierungstool in Ihrem Cpanel (im Lieferumfang enthalten). Wenn Sie Alle Inhalte komprimieren (Compress All Content) auswählen, können Sie dadurch viel schneller surfen.

Führen Sie gelegentlich den Virenscan Ihres Panels aus, um zu verhindern, dass Ihr Mail-Verzeichnis solche Bedrohungen erhält wie Doc.Dropper.Agent, Xls.Dropper.Agent und das Verzeichnis /public_html vor noch schlimmeren Folgen.

Einige gängige Logik

Erhalten Sie das SSL-Zertifikat, solange die großen Suchmaschinen Webseiten mit diesem Zertifikat als 'vertrauenswürdiger' einstufen. Aufblähen Sie Ihr CMS nicht mit den Modulen, die nicht notwendig sind, so dass Sie sie nicht für den Rest Ihres Lebens warten können.

Eine weitere Möglichkeit besteht darin, die Geschwindigkeit beim Surfen auf Ihrer Website zu erhöhen, indem Sie das eingebettete CMS-Caching aktivieren. Stellen Sie es auf einen Zeitwert von 20 min ein. Mit PHP's APCu und den modernen Browsern wird es immer weniger entscheidend. Dennoch, wenn Ihre Website ziemlich sperrig und mit einem schweren Design ist, ist es ratsam, mindestens ein Minimum Caching zu setzen.

Meta-Beschreibungen zu lang

Solche Warnungen kommen von den Suchmaschinen - 160 Wörter sind eine optimale Option, solange viele Suchmaschinen nicht so viel 'lesen', Menschen auch nicht. Ihre technischen Artikel auf den Punkt zu halten und ein eloquentes Schreiben zu haben - ist ein guter SEO-Optimierungsplan.

Die sozialen Medien und das Online-Marketing verändern die Art und Weise, wie Ihre Website wahrgenommen wird - sie ist nicht mehr eine All-in-One-Lösung, sondern ein segmentierter Ansatz. Daher verlagerte sich die SEO-Taktik Ihrer Website-Bewusstseinsbildung auf eine visuelle Präsentation und qualitativ hochwertige Inhaltserstellung, anstatt Link-Building. Unter Berücksichtigung aller technischen Aspekte (es gibt nicht viele von ihnen in diesen Tagen), können Sie sich auf die kreative Seite des Markenaufbaus konzentrieren.

robo-txt

Die KI-Cloud

Der Technologiewechsel schafft unterschiedliche Medienchancen. Viele Online-Ressourcen läuten das Aufkommen der neuen KI-Ära ein (es ist auch ohne sie sichtbar). Die neue Social-Media-Interaktion und das KI-Content-Management.

Ihre Inhalte erhalten die Aura. Websites sterben nicht aus, aber die Art und Weise, wie wir unsere Marke repräsentieren - ist. Die Social-Media-Interaktion und das Online-Bewusstsein werden eher punktorientiert als sporadisch. Die manuelle Suche wird veraltet, wobei die Aura in die visuelle Datenwolke einsteigt. Menschen erkennen KI-Prognosen und Potenziale. Ein vollständiger Wechsel zur KI-Wolke ist nur eine Frage der Zeit.

All diese Veränderungen haben sich auf die Verfasser von Inhalten und Online-Neugründungen ausgewirkt und viele von ihnen aus dem Geschäft gedrängt. Kreatives Schreiben und kreatives Denken kommen zu zweit, bleiben aber nicht immer im traditionellen Medium.

Einige Gedanken

Die menschliche Kreativität wird nicht sterben (zumindest im 21. Jahrhundert). Content Management und die sozialen Medien sind bereits verändert worden. Websites werden nicht sterben, aber die Suchmaschinen werden ihr Verhalten und ihre Algorithmen ändern. Die organische Suche und ihr Fußabdruck werden neolithisch, aber der Qualitätsgehalt hält immer noch die Krone auf.