Artikel ini menyelidiki kerumitan pembahagian rentetan teks tanpa ruang dengan cekap ke dalam senarai perkataan yang bermakna. Kami meneroka algoritma yang memanfaatkan kekerapan perkataan untuk mencapai hasil yang tepat bagi data dunia sebenar.
Algoritma beroperasi di bawah andaian bahawa perkataan diedarkan secara bebas, mengikut undang-undang Zipf. Ini menunjukkan bahawa kebarangkalian untuk menemui perkataan dengan pangkat 'n' dalam kamus adalah lebih kurang 1/(n log N), di mana N mewakili jumlah bilangan perkataan dalam kamus.
Untuk membuat kesimpulan kedudukan bagi ruang, kami menggunakan pengaturcaraan dinamik. Kami mentakrifkan fungsi kos yang menggunakan logaritma songsangan kebarangkalian perkataan. Ayat optimum memaksimumkan hasil kos perkataan individu, yang boleh dikira dengan cekap menggunakan pengaturcaraan dinamik.
Kod Python berikut melaksanakan algoritma:
<code class="python">import math words = open("words-by-frequency.txt").read().split() wordcost = dict((k, log((i+1)*log(len(words)))) for i,k in enumerate(words)) maxword = max(len(x) for x in words) def infer_spaces(s): cost = [0] for i in range(1,len(s)+1): c,k = best_match(i) cost.append(c) out = [] i = len(s) while i>0: c,k = best_match(i) out.append(s[i-k:i]) i -= k return " ".join(reversed(out))</code>
Menggunakan kod yang disediakan, kita boleh memisahkan rentetan teks tanpa ruang dan memperoleh perkataan yang bermakna:
s = 'thumbgreenappleactiveassignmentweeklymetaphor' print(infer_spaces(s))
Algoritma secara berkesan menyimpulkan lokasi ruang, menghasilkan pengecaman perkataan yang tepat untuk rentetan teks pendek dan panjang. Walaupun tiada pembatas yang jelas, output mengekalkan tahap keselarasan dan kebolehbacaan yang tinggi.
Algoritma menawarkan beberapa faedah:
Atas ialah kandungan terperinci Bagaimanakah Kita Boleh Membahagikan Teks Tanpa Ruang Menjadi Senarai Perkataan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!