Bagaimanakah Apache Spark boleh digunakan untuk pemadanan rentetan yang cekap dengan teks yang mudah ralat menggunakan pengubah pembelajaran mesin?

Barbara Streisand
Lepaskan: 2024-11-03 02:27:29
asal
843 orang telah melayarinya

How can Apache Spark be used for efficient string matching with error-prone text using machine learning transformers?

Pemadanan Rentetan yang Cekap dalam Apache Spark untuk Teks Mudah Ralat

Latar Belakang:

Pemadanan rentetan adalah penting semasa mengesahkan teks diekstrak daripada imej atau sumber lain. Walau bagaimanapun, alat OCR sering memperkenalkan ralat, menjadikan padanan rentetan yang tepat tidak boleh dipercayai. Ini menimbulkan keperluan untuk algoritma yang cekap untuk membandingkan rentetan yang diekstrak dengan set data, walaupun terdapat ralat.

Pendekatan:

Semasa menggunakan Spark untuk tugasan ini mungkin tidak sesuai, kami mempersembahkan pendekatan yang menggabungkan berbilang pengubah pembelajaran mesin:

  1. Tokenizer: Pecah rentetan kepada token untuk mengendalikan ralat seperti penggantian aksara.
  2. NGram: Mencipta n-gram (cth., 3-gram) untuk mengambil kira aksara yang hilang atau rosak.
  3. Vectorizer: Menukar n-gram kepada vektor berangka, membenarkan untuk pengiraan jarak.
  4. LSH (Locality-Sensitive Hashing): Melakukan anggaran carian jiran terdekat pada vektor.

Pelaksanaan:

<code class="scala">import org.apache.spark.ml.feature.{RegexTokenizer, NGram, HashingTF, MinHashLSH, MinHashLSHModel}

val tokenizer = new RegexTokenizer()
val ngram = new NGram().setN(3)
val vectorizer = new HashingTF()
val lsh = new MinHashLSH()

val pipeline = new Pipeline()
val model = pipeline.fit(db)

val dbHashed = model.transform(db)
val queryHashed = model.transform(query)

model.stages.last.asInstanceOf[MinHashLSHModel]
  .approxSimilarityJoin(dbHashed, queryHashed, 0.75).show</code>
Salin selepas log masuk

Pendekatan ini memanfaatkan LSH untuk mengenal pasti rentetan serupa dengan cekap, walaupun dengan ralat. Ambang 0.75 boleh dilaraskan bergantung pada tahap persamaan yang diingini.

Pelaksanaan Pyspark:

<code class="python">from pyspark.ml import Pipeline
from pyspark.ml.feature import RegexTokenizer, NGram, HashingTF, MinHashLSH

model = Pipeline(stages=[
    RegexTokenizer(pattern="", inputCol="text", outputCol="tokens", minTokenLength=1),
    NGram(n=3, inputCol="tokens", outputCol="ngrams"),
    HashingTF(inputCol="ngrams", outputCol="vectors"),
    MinHashLSH(inputCol="vectors", outputCol="lsh")
]).fit(db)

db_hashed = model.transform(db)
query_hashed = model.transform(query)

model.stages[-1].approxSimilarityJoin(db_hashed, query_hashed, 0.75).show()</code>
Salin selepas log masuk

Sumber Berkaitan:

  • [Optimumkan kerja Spark yang perlu mengira setiap satu untuk setiap persamaan entri dan keluarkan N item serupa teratas untuk setiap satu](https://stackoverflow.com/questions/53917468/optimize-spark-job-that- perlu-mengira-setiap-untuk-setiap-kemasukan-persamaan-dan-keluar)

Atas ialah kandungan terperinci Bagaimanakah Apache Spark boleh digunakan untuk pemadanan rentetan yang cekap dengan teks yang mudah ralat menggunakan pengubah pembelajaran mesin?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:php.cn
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan