J'ai récemment réalisé un projet Vue multipage, mais j'ai vu de nombreuses personnes sur Internet dire que la séparation du front-end et du back-end n'est pas propice au référencement. Pourquoi est-ce ? Est-il propice à l'optimisation du référencement d'écrire des pages statiques sur le front-end et de les envoyer au back-end pour un rendu côté serveur ? De plus, je voudrais demander si les opérations logiques sont traitées sur le front-end ou sur le back-end ? Par exemple, lors du tri des billets d'avion, le front-end trie-t-il les données puis utilise-t-il js pour afficher la page, ou le back-end trie-t-il ?
L'essence du référencement est qu'un serveur initie une requête vers un autre serveur et analyse le contenu de la requête. Mais d’une manière générale, les moteurs de recherche ne reviendront pas en arrière et n’exécuteront pas les js demandés. En d'autres termes, s'il s'agit d'une application monopage, le HTML n'a pas encore restitué certaines données côté serveur, et les données ne sont restituées que dans le navigateur, et le HTML demandé par le moteur de recherche n'a pas de données restituées. Ceci est très préjudiciable au contenu consultable par les moteurs de recherche. Par conséquent, le rendu côté serveur consiste à essayer d'avoir des données sur la page avant que le serveur ne les envoie au navigateur.
La deuxième question est que les opérations générales de logique de données sont placées sur le back-end. S'il n'y a que quelques éléments de données triés, le tri frontal et frontal sera le même. S'il y a 1 000 éléments de données, le front-end doit demander à toutes les données d'être triées. C’est évidemment déraisonnable.
Parce que les moteurs de recherche n’aiment pas beaucoup exécuter JavaScript, le rendu back-end est meilleur. Par exemple, vous pouvez l'essayer. Il semble que Google ne puisse pas du tout rechercher les articles de la colonne Zhihu. Internet Archive ne peut pas non plus être appliqué aux colonnes Zhihu.
Mon opinion personnelle est la suivante : pour les sites Web axés sur le contenu, le contenu principal doit être rendu autant que possible sur le backend pour faciliter une utilisation sans navigateur. Pour les sites Web basés sur des logiciels, tels que divers SAP, vous n'avez pas à vous en soucier. Cela ne sert à rien de s’en soucier.
Le principe de base d'un robot de moteur de recherche est d'explorer votre URL, puis d'obtenir votre code source HTML et de l'analyser. Votre page utilise généralement le mécanisme de liaison de données de js tel que vue pour afficher les données de la page. Le code HTML obtenu par le robot est votre page modèle plutôt que la page de rendu des données finales, donc utiliser js pour restituer les données n'est pas convivial pour le référencement. .
ps : De plus, tous les moteurs js ne peuvent pas explorer. Par exemple, Google est depuis longtemps capable d'analyser le contenu js, mais un groupe de moteurs "stupides" nationaux n'est toujours pas en mesure de le faire. La raison pour laquelle Zhihu est introuvable sur Google est que le fichier robots.txt du site Web peut être configuré. Zhihu n'est pas ouvert par défaut aux moteurs de recherche. Un moteur respectueux des règles suivra toujours votre configuration et n’analysera pas, mais ce n’est pas le cas de certains logiciels malveillants.