この投稿シリーズは NgateSystems.com にインデックスされています。とても便利なキーワード検索機能もあります。
最終レビュー日: 2024 年 11 月
アプリケーションを Google Cloud にデプロイすると、キーワード「インデックス」に追加するコンテンツを求めてウェブをパトロールする「ウェブ スパイダー」のターゲットになります。サイトがインデックスに登録されると、検索エンジンでそのサイトが表示されるようになります。
すべてがうまくいけば素晴らしいことです。検索エンジンはビジネスをあなたの方向に導き、一銭も請求しません。しかし実際には、サイトを目立つようにインデックスするようスパイダーに奨励する必要があります。これが「検索エンジン最適化」(略して SEO) の意味です。
サイトの SEO を向上するには、次のことが必要です。
あなたのサイトは、Google (および他の検索エンジン) にインデックスを付けたいすべてのルートをリストした サイトマップ ファイルを提供する必要があります。サイトの「ツリー」階層内のページが 経由で適切にリンクされていれば、インデックス作成スパイダーは通常、それらを検出します。アンカーリンク。ただし、サイトが大規模または新しい場合に、他のサイトからの参照が不十分な場合は、問題が発生する可能性があります。
これらの問題は、「サイト マップ」ファイルを作成することで解決されます。サイト マップはいくつかの方法でフォーマットできますが、最も単純な場合、インデックス作成エンジンは次のようなページをリストする単純なテキスト ファイルで満足します。
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
次の点に注意してください:
robots ファイルは、サイトマップ ファイルに次のような「パートナー」を提供します。
これが例です
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
Svelte プロジェクトでは、robots.txt ファイル (必須のファイル名) は /static/robots.txt ファイルに保存する必要があります。
robots.txt ファイルと sitemap.txt ファイルがプロジェクトの URL ルートに正しくデプロイされていることを確認するには、ブラウザを使用してファイルを表示してみてください。
ブラウザの「検索」ボックスに次の URL を入力すると、ファイルの内容が表示されます。
// /static/robots.txt - Don't copy this line User-agent: * Disallow: https://myProjectURL/inventory-maintenance Sitemap: https://myProjectURL/sitemap.txt
これらすべての問題の詳細については、「サイトマップについて学ぶ」を参照してください
サイトマップを正常に展開したら、サイトマップを Google Search Console に送信して Google に「注意」を与えると便利です。
ここでは、「プリンシパル」、つまりサイトの URL を登録することから始めます。これには、サイトの所有者であることを Google に保証する手順の実行が含まれます。この手順は、コンソールが「サイト検証」ファイルを「ダウンロード」フォルダーにダウンロードすることから始まります。これを Svelte 静的フォルダーにコピーし、Web アプリを再構築/再デプロイしてファイルをリモート サイトにアップロードする必要があります。認証画面で [確認] ボタンをクリックしたときに、Google が期待する内容のファイルを見つけることができれば、あなたが真の所有者であると判断します。
画面左側のメニューで [サイトマップ] ツールをクリックすると、サイトマップ URL (sitemap.txt) を入力し、[送信済みサイトマップ] ウィンドウで「成功」ステータスを取得できるようになります
Search Console は、サイトのインデックス作成の進行状況を監視し、報告された可能性のある問題を解決するための高度なツールです。詳細については、「Search Console を使ってみる」を参照してください
近年、検索エンジンはクライアント側 JavaScript でレンダリングされたコンテンツのインデックス作成能力を向上させていますが、HTML のみを含むページの方が満足しています。サーバー側レンダリング (SSR) コンテンツ (つまり、サーバー上でデータベース アクセス JavaScript を実行することによって HTMl がすでに生成されているページ) は、より頻繁かつ確実にインデックス付けされます。インデックス作成エンジンがどのように機能するかは Google 以外に誰も知りませんが、合理的な推測では次のようになります。
まず、あなたの Web アプリには「サイト ランキング」が与えられます (これはあいまいな方法で決定されますが、おそらく URL を参照するサイトの「バックリンク」の数に影響されます)。これにより、一定の「クロール バジェット」、つまりインデックス作成エンジンがページのインデックス作成に費やす準備ができている時間が与えられます。これを賢く使いたいと思うでしょう。サーバー側のレンダリングによりボットのワークロードが軽減され、予算がさらに節約されます。したがって、優れた SEO が必要な場合は、SSR を使用する必要があります!
サービス側レンダリングの究極の表現は、次のステートメントの存在によって、ビルド 時に、「静的」ページ (まったく変更されないか、またはほとんど変更されないデータを表示するページ) がレンダリングされるところです。その page.js または page.server.js ファイル:
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
サーバーは純粋な HTML をダウンロードするだけで済むようになったため、クロールの予算はさらに大幅に削減され、ユーザーは超高速の応答を受け取ります。スケジューラを使用してプリレンダリング ビルドを自動化する仕組みの詳細については、投稿 4.3 を参照してください。
クロールとインデックス作成の概要に関する Google のドキュメントには、知っていることがすべて記載されています。概要は次のとおりです:
まず、Google の「モバイル ファースト」ポリシーを理解する必要があります。 Google スパイダーは、携帯電話で実行されているブラウザで表示されるのと同じようにサイトを分析します。これは、たとえばフォント サイズが小さすぎると判断された場合、サイトの「評判」 (およびクロール バジェット) が低下することを意味します。
Web アプリがデスクトップ ユーザー向けに設計されている場合、これは大きな打撃となるでしょう。携帯電話でサイトを試してみると、おそらくまったく役に立たないと結論付けるでしょう。
これを回避する方法は、「レスポンシブ スタイル」 (Post 4.4 を参照) を使用することです。これにより、Web アプリは実行されているデバイスのページ幅を感知し、それに応じて調整します。
Web アプリの一部が Web サイトの運用に適していない可能性があります。これらを削除しようとしても、Google はインデックス作成のほとんどがモバイル ページからのものであることを通知するでしょう。彼らは、そのようなコンテンツをタブまたは「アコーディオン」の後ろにそっと隠すことを推奨しています。
ウェブ スパイダーが主に探しているのは コンテンツ、つまり検索エンジンの顧客が役立つ情報です。しかし、これを見つけて解釈するにはあなたの助けが必要です。これを行う方法についてのヒントをいくつか紹介します@
// /static/robots.txt - Don't copy this line User-agent: * Disallow: https://myProjectURL/inventory-maintenance Sitemap: https://myProjectURL/sitemap.txt
この取り決めは、
// /static/sitemap.txt - Don't copy this line https://myProjectURL/inventory-display https://myProjectURL/inventory-maintenance etc
以上がNgSysV.SEO (検索エンジン最適化)の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。