JavaScript bietet Benutzern ein intuitives, dynamisches und interaktives Online-Erlebnis. Beim Scrapen herkömmlicher HTML-Seiten ist alles einfach und der Vorgang schnell. Der Googlebot kann gleichzeitig darauf zugreifen, nachdem er die HTML-Datei heruntergeladen und einen Link zum Quellcode extrahiert hat. Sobald die CSS-Datei heruntergeladen ist, wird die Seite vom Google-Indexer indiziert, der auch alle heruntergeladenen Ressourcen empfängt.
Beim Crawlen von Websites, die hauptsächlich JavaScript verwenden, wird es schwierig. Googlebot lädt die HTML-Datei herunter.
Googlebot kann keine Links im Quellcode sehen, da diese erst nach der Ausführung von JavaScript eingefügt werden.
Als nächstes laden Sie die CSS- und JS-Dateien herunter. Googlebot muss den Google Web Rendering Service verwenden, um JavaScript zu analysieren, zu erstellen und auszuführen.
WRS ruft Daten aus einer Datenbank oder einer anderen API ab.
Indexer kann Materialien indizieren. Der Googlebot kann dann den neu gefundenen Link zum weiteren Crawlen zu seiner Warteschlange hinzufügen.
Dies beinhaltet das Rendern von Webseiten. Der Prozess der Konvertierung von HTML-, CSS- und JavaScript-Code in die interaktive Webseite, die Besucher erwarten, wenn sie auf einen Link klicken, wird als Rendern der Webseite bezeichnet. Jede Seite der Website wird mit Blick auf den Benutzer erstellt.
Das Parsen, Erstellen und Ausführen von JavaScript-Dateien nimmt sowohl für Nutzer als auch für Google viel Zeit in Anspruch. Google kann den Inhalt von Seiten, die große Mengen an JavaScript enthalten, oft erst indexieren, wenn die Website vollständig generiert ist.
Nicht alles, was langsamer ist, passiert während des Rendervorgangs. Es beschreibt auch Möglichkeiten, neue Verbindungen zu finden. Google hat oft Probleme, Links auf JavaScript-reichen Webseiten zu finden, bevor die Seite erstellt wird. JavaScript ist eine Computersprache, die erstellt werden muss, bevor sie verwendet werden kann. Jede Syntax, die mit einer bestimmten Version von JavaScript nicht kompatibel ist, führt zum Fehlschlagen des Builds.
Die neueste Chrome-Version ist die Basis für Googlebot. Dies weist darauf hin, dass der Googlebot zum Rendern der Website die neueste Version des Browsers verwendet. Der Googlebot durchsucht Websites auf die gleiche Weise, wie ein Mensch einen Browser verwenden würde. Allerdings ist Googlebot kein Standard-Chrome-Browser. Der Googlebot lehnt die Benutzerautorisierungsanfrage ab (d. h. der Googlebot lehnt die Anfrage zur automatischen Videowiedergabe ab). Seitenübergreifendes Laden, Cookies, Local Storage und Session Storage werden gelöscht. Wenn Ihr Inhalt auf Cookies oder anderen lokal gespeicherten Informationen basiert, wird Google Ihren Inhalt nicht indizieren. Der Googlebot entscheidet möglicherweise, nicht alle Ressourcen herunterzuladen, Browser tun dies jedoch immer.
Google hält kanonische Tag-Änderungen mithilfe von JS für unzuverlässig. Stellen Sie daher sicher, dass Ihre kanonische URL im HTML-Format und nicht im JS-Format vorliegt. Obwohl es möglich ist, dass Google dieses Problem behoben hat, sollten Sie SEO nicht riskieren, bis Sie es genau wissen.
Google weiß viel über JavaScript. Allerdings erfordert JavaScript mehr Arbeit als einfaches HTML, da Crawler versuchen, die Milliarden von Websites auf der ganzen Welt zu verstehen und zu bewerten. Es kann manchmal darunter leiden.
Google behauptet, dass der Googlebot Websites mithilfe von JavaScript in zwei Schritten crawlt. Der Crawler untersucht den HTML-Code während des ersten Scans und verwendet ihn zum Indizieren der Site. Sie werden später wiederkommen, um das erforderliche JavaScript anzuzeigen. Mit HTML getaggtes Material erscheint jedoch auf Websites, die mit serverseitigem Rendering erstellt wurden. Der Googlebot muss die Website nicht erneut besuchen, um das JavaScript auf der Seite zu rendern und den Inhalt ordnungsgemäß zu indizieren, da der Hauptinhalt bereits sichtbar ist. Dies kann die JavaScript-SEO-Methoden erheblich verbessern.
Aufgrund des Zeitunterschieds zwischen dem ersten und zweiten Aufruf der Website werden in JavaScript enthaltene Inhalte nicht schnell indiziert. Daher werden diese Materialien bei der Ermittlung des ersten Rankings nicht berücksichtigt und es kann einige Zeit dauern, bis Google Änderungen bemerkt und seine Ergebnisse aktualisiert.
Daher sollten Unternehmen, die JavaScript-SEO einsetzen, sicherstellen, dass sie so viele wichtige Inhalte wie möglich in den HTML-Code ihrer Website integrieren. Sie sollten wichtige Informationen so aufschreiben, dass Crawler sie sofort verstehen können (wenn sie möchten, dass diese Informationen für das Ranking berücksichtigt werden).
JavaScript wird erst gerendert, wenn der Googlebot Ihre Website ein zweites Mal aufruft. Aus diesem Grund fügen einige Websites fälschlicherweise Tags hinzu, beispielsweise ein „No Index“-Tag, zum HTML-Code, der beim ersten Scan der Website durch Google geladen wurde. Dieses Tag verhindert möglicherweise, dass der Googlebot erneut auf die Website zugreift, um JavaScript auszuführen, was dazu führt, dass die Website falsch indiziert wird.
JavaScript bleibt ein wichtiger Bestandteil des Internets, da Unternehmen es nutzen, um ihre Seiten zu markieren und ihre Websites für Besucher attraktiver zu machen. Für viele ist es jedoch immer noch wichtig zu verstehen, wie Googlebot und andere Crawler JavaScript interpretieren und wie es mit JavaScript SEO interagiert. JavaScript-basierte Websites können jetzt von Crawlern und Suchmaschinen genutzt werden HTML-basierte Websites können. Es liegt jedoch in der Verantwortung der Entwickler, ihre Websites zugänglich und crawlbar zu machen und zu verstehen, wie SEO für moderne JavaScript-Websites funktioniert.
Das obige ist der detaillierte Inhalt vonKönnen Suchmaschinen JavaScript indizieren?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!