Erstellen einer Websuchmaschine in Go mit Elasticsearch

Susan Sarandon
Freigeben: 2024-11-05 10:33:02
Original
442 Leute haben es durchsucht

Websuchmaschinen sind unerlässlich, um große Mengen an Online-Informationen zu indizieren und sie in Millisekunden zugänglich zu machen. In diesem Projekt habe ich eine Suchmaschine in Go (Golang) namens RelaxSearch erstellt. Es kombiniert Web Scraping, regelmäßige Datenindizierung und Suchfunktionen durch die Integration mit Elasticsearch – einer leistungsstarken Such- und Analyse-Engine. In diesem Blog führe ich Sie durch die Hauptkomponenten von RelaxSearch, die Architektur und wie es Daten für eine schnelle, schlüsselwortbasierte Suche effizient auswertet und indiziert.

Übersicht über RelaxSearch

RelaxSearch basiert auf zwei Hauptmodulen:

  1. RelaxEngine: Ein Web-Scraper, der auf Cron-Jobs basiert und regelmäßig bestimmte Websites crawlt, Inhalte extrahiert und in Elasticsearch indiziert.
  2. RelaxWeb: Ein RESTful-API-Server, der es Benutzern ermöglicht, die indizierten Daten zu durchsuchen und Paginierung, Filterung und Inhaltshervorhebung für benutzerfreundliche Antworten bereitzustellen.

Projektmotivation

Das Erstellen eines Suchmaschinenprojekts von Grund auf ist eine großartige Möglichkeit, Web Scraping, Datenindizierung und effiziente Suchtechniken zu verstehen. Ich wollte eine einfache, aber funktionale Suchmaschine mit schnellem Datenabruf und einfacher Erweiterbarkeit erstellen und dabei die Effizienz von Go und die leistungsstarke Indizierung von Elasticsearch nutzen.

Hauptmerkmale

  • Automatisiertes Crawling: Mithilfe von Cron-Jobs kann RelaxEngine in regelmäßigen Abständen ausgeführt werden, Daten extrahieren und in Elasticsearch speichern.
  • Volltextsuche: RelaxWeb bietet eine Volltextsuchfunktion, die Inhalte nach Schlüsselwörtern indiziert und so das Auffinden beschleunigt.
  • REST-API: Zugriff über eine RESTful-API mit Parametern für Paginierung, Datumsfilterung und Inhaltshervorhebung.
  • Datenspeicherung: Der indizierte Inhalt wird in Elasticsearch gespeichert, was skalierbare und reaktionsschnelle Abfragen ermöglicht.

Architektur von RelaxSearch

1. RelaxEngine (Web Scraper und Indexer)

RelaxEngine ist ein in Go geschriebener Web-Scraper, der durch Webseiten navigiert und Inhalte extrahiert und speichert. Es wird als Cron-Job ausgeführt und kann daher in regelmäßigen Abständen (z. B. alle 30 Minuten) ausgeführt werden, um den Index mit den neuesten Webdaten auf dem neuesten Stand zu halten. So funktioniert es:

  • Seed-URL: RelaxEngine beginnt mit dem Scraping von einer angegebenen Seed-URL und folgt dann den Links innerhalb der Website bis zu einer konfigurierbaren Tiefe.
  • Inhaltsanalyse: Für jede Seite werden Titel, Beschreibungen und Schlüsselwörter extrahiert und so ein informativer Datensatz erstellt.
  • Indizierung in Elasticsearch: Der gescrapte Inhalt wird in Elasticsearch indiziert und ist für die Volltextsuche bereit. Die Daten jeder Seite werden mit einer eindeutigen Kennung, einem Titel, einer Beschreibung und anderen Metadaten gespeichert.

2. RelaxWeb (Such-API)

RelaxWeb bietet einen RESTful-API-Endpunkt, der das Abfragen und Abrufen von in Elasticsearch gespeicherten Daten erleichtert. Die API akzeptiert mehrere Parameter wie Schlüsselwörter, Paginierung und Datumsfilterung und gibt relevante Inhalte im JSON-Format zurück.

  • API-Endpunkt: /search
  • Abfrageparameter:
    • Stichwort: Hauptsuchbegriff.
    • von und Größe: Paginierungskontrolle.
    • dateRangeStart und dateRangeEnd: Ergebnisse basierend auf dem Zeitstempel der Daten filtern.

Building a Web Search Engine in Go with Elasticsearch

Schlüsselkomponenten und Codeausschnitte

Im Folgenden finden Sie einige wichtige Komponenten und Codeauszüge von RelaxSearch, um die Funktionsweise zu veranschaulichen.

Haupt-Go-Code für RelaxEngine

Die Kernfunktionalität befindet sich in der Datei main.go, in der RelaxEngine mithilfe von Gocron einen Scheduler zur Verwaltung von Cron-Jobs initialisiert, den Elasticsearch-Client einrichtet und mit dem Crawlen von der Seed-URL aus beginnt.

func main() {
    cfg := config.LoadConfig()
    esClient := crawler.NewElasticsearchClient(cfg.ElasticsearchURL)
    c := crawler.NewCrawler(cfg.DepthLimit, 5)
    seedURL := "https://example.com/" // Replace with starting URL

    s := gocron.NewScheduler(time.UTC)
    s.Every(30).Minutes().Do(func() {
        go c.StartCrawling(seedURL, 0, esClient)
    })
    s.StartBlocking()
}
Nach dem Login kopieren

Crawler- und Indexierungslogik

Die Datei crawler.go verarbeitet Webseitenanfragen, extrahiert Inhalte und indiziert sie. Mithilfe des Elastic-Pakets wird jede gescrollte Seite in Elasticsearch gespeichert.

func (c *Crawler) StartCrawling(pageURL string, depth int, esClient *elastic.Client) {
    if depth > c.DepthLimit || c.isVisited(pageURL) {
        return
    }
    c.markVisited(pageURL)
    links, title, content, description, err := c.fetchAndParsePage(pageURL)
    if err == nil {
        pageData := PageData{URL: pageURL, Title: title, Content: content, Description: description}
        IndexPageData(esClient, pageData)
    }
    for _, link := range links {
        c.StartCrawling(link, depth+1, esClient)
    }
}
Nach dem Login kopieren

Suchen Sie nach API-Code in RelaxWeb

Im Relaxweb-Dienst stellt ein API-Endpunkt Volltextsuchfunktionen bereit. Der Endpunkt /search empfängt Anfragen und Abfragen von Elasticsearch und gibt relevante Inhalte basierend auf Schlüsselwörtern zurück.

func searchHandler(w http.ResponseWriter, r *http.Request) {
    keyword := r.URL.Query().Get("keyword")
    results := queryElasticsearch(keyword)
    json.NewEncoder(w).Encode(results)
}
Nach dem Login kopieren

RelaxSearch einrichten

  1. Klonen Sie das Repository
   git clone https://github.com/Ravikisha/RelaxSearch.git
   cd RelaxSearch
Nach dem Login kopieren
  1. Konfiguration

    Aktualisieren Sie .env-Dateien für RelaxEngine und RelaxWeb mit Elasticsearch-Anmeldeinformationen.

  2. Mit Docker ausführen

    RelaxSearch verwendet Docker für eine einfache Einrichtung. Führen Sie einfach aus:

   docker-compose up --build
Nach dem Login kopieren

Building a Web Search Engine in Go with Elasticsearch

Building a Web Search Engine in Go with Elasticsearch

Building a Web Search Engine in Go with Elasticsearch

Herausforderungen und Verbesserungen

  • Skalierbarkeit: Elasticsearch lässt sich gut skalieren, aber die Handhabung von umfangreichem Scraping mit zahlreichen Links erfordert Optimierungen für größere Bereitstellungen.
  • Robuste Fehlerbehandlung: Eine Verbesserung der Fehlerbehandlung und der Wiederholungsmechanismen würde die Widerstandsfähigkeit erhöhen.

Abschluss

RelaxSearch ist eine lehrreiche und praktische Demonstration einer einfachen Suchmaschine. Obwohl es sich noch um einen Prototyp handelt, hat dieses Projekt entscheidend zum Verständnis der Grundlagen von Web Scraping, Volltextsuche und effizienter Datenindizierung mit Go und Elasticsearch beigetragen. Es eröffnet Möglichkeiten für Verbesserungen und praktische Anwendungen in skalierbaren Umgebungen.

Erkunden Sie das GitHub-Repository, um RelaxSearch selbst auszuprobieren!

Das obige ist der detaillierte Inhalt vonErstellen einer Websuchmaschine in Go mit Elasticsearch. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!