php - Bagaimana untuk menyelesaikan kehilangan data apabila logstash menulis data ke elasticsearch
欧阳克
欧阳克 2017-07-01 09:11:55
0
1
1098

Terdapat lebih daripada 600 keping data dalam log saya, tetapi hanya lebih daripada 300 keping ditulis ke elasticsearch
Adakah sesiapa tahu sebabnya?
Ini ialah konfigurasi
masukan saya {

file {
    path => ["/usr/local/20170730.log"]
    type => "log_test_events"
    tags => ["log_tes_events"]
    start_position => "beginning"
    sincedb_path => "/data/logstash/sincedb/test.sincedb"
    codec => "json"
    close_older => "86400"
    #1 day
    ignore_older => "86400"
}
beats{port => 5044}

}
tapis {

urldecode {
    all_fields => true
}

}

keluaran{

   elasticsearch {
      hosts  => "localhost:9200"
      index  => "logstash_%{event_date}"
}

stdout { codec => json }
}

欧阳克
欧阳克

温故而知新,可以为师矣。 博客:www.ouyangke.com

membalas semua(1)
过去多啦不再A梦

Sebab apabila membaca log, templat es secara automatik mencipta jenis data berdasarkan format data Contohnya, nilai medan a ialah int dan rentetan indeks pertama yang dia cipta membaca nombor, iaitu indeks jenis int

Ubah suai konfigurasi dan lakukan pemetaan
output {

      elasticsearch {
        hosts  => "localhost:9200"
        index  => "test1"
        manage_template => true
        template_overwrite => true
        template => "/usr/local/logstash/templates/stat_day.json"
     }
     

stat_day.json format templat

     {

"pesanan" : 1,
"template" : "test1",
"pemetaan" : {

 "log_test": {
      "properties" : {
            "event_id": { "type": "string"}
       }
  }

}
}

Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan