Tokenisasi Teks Tidak Berjarak menjadi Perkataan menggunakan Algoritma Cekap
Dalam bidang pemprosesan bahasa semula jadi, keupayaan untuk memisahkan aliran aksara yang berterusan menjadi perkataan yang bermakna adalah penting. Proses ini, yang dikenali sebagai tokenisasi, amat mencabar apabila berurusan dengan teks yang tidak mempunyai ruang atau pembatas.
Pernyataan Cabaran
Tugas di tangan melibatkan pemisahan rentetan input seperti "tableapplechairtablecupboard..." ke dalam senarai perkataan, dengan mengambil kira kemungkinan subrentetan samar-samar di mana urutan boleh membentuk berbilang perkataan (cth., "almari" boleh menjadi "cawan" atau "papan").
Algoritma: Mengeksploitasi Kekerapan Perkataan
Pendekatan naif untuk mengenal pasti perkataan terpanjang yang mungkin secara berulang pada setiap kedudukan menghasilkan keputusan yang tidak memuaskan dalam senario dunia sebenar. Untuk mengatasi had ini, kami memanfaatkan algoritma yang menggabungkan taburan kekerapan perkataan.
Memodelkan Kekerapan Perkataan
Kami menganggap bahawa frekuensi perkataan mengikut undang-undang Zipf, yang menyatakan bahawa kebarangkalian menemui perkataan kerap ke-n adalah lebih kurang 1/(n * log(N)), di mana N ialah jumlah bilangan perkataan dalam bahasa itu. Menggunakan kamus kos prakiraan yang mengekod perhubungan ini, kami boleh menetapkan kos kepada setiap calon perkataan yang berpotensi.
Pendekatan Pengaturcaraan Dinamik
Untuk menentukan pembahagian perkataan yang optimum, kami menggunakan pengaturcaraan dinamik. Kami mengulangi melalui rentetan input, mengekalkan nilai kos berjalan untuk setiap titik perpecahan yang berpotensi. Pada setiap kedudukan, kami menilai perkataan calon bermula dari hujung rentetan dan memilih pemisahan dengan kos terendah.
Pelaksanaan Algoritma
Kod Python yang disediakan menawarkan pelaksanaan ringkas algoritma ini:
<code class="python">from math import log # Precomputed word cost dictionary using Zipf's law wordcost = ... # Helper function to find the best word match based on cost def best_match(i): ... # Function to infer spaces in the input string using dynamic programming def infer_spaces(s): ...</code>
Contoh Penggunaan
Untuk menggunakan kod ini, hanya masukkan rentetan teks berterusan seperti berikut:
<code class="python">s = 'thumbgreenappleactiveassignmentweeklymetaphor' print(infer_spaces(s))</code>
Keputusan dan Penilaian
Algoritma ini menunjukkan prestasi yang luar biasa walaupun dengan kamus perkataan terhad. Ia berjaya menandakan teks kompleks dengan ketepatan yang tinggi.
Atas ialah kandungan terperinci Bagaimanakah kita boleh menyamakan teks tanpa jarak ke dalam perkataan dengan berkesan menggunakan kekerapan perkataan dan pengaturcaraan dinamik?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!