下面小編就為大家帶來一篇python django使用haystack:全文檢索的框架(實例講解)。小編覺得蠻不錯的,現在就分享給大家,也給大家做個參考。一起跟著小編過來看看吧
haystack:全文檢索的框架
whoosh:純Python寫的全文搜尋引擎
jieba:一個免費的中文分詞包
首先安裝這三個套件
pip install django-haystack
pip install whoosh
pip install jieba
1.修改settings.py文件,安裝應用程式haystack ,
2.在settings.py檔案中設定搜尋引擎
HAYSTACK_CONNECTIONS = { 'default': { # 使用whoosh引擎 'ENGINE': 'haystack.backends.whoosh_cn_backend.WhooshEngine', # 索引文件路径 'PATH': os.path.join(BASE_DIR, 'whoosh_index'), } } # 当添加、修改、删除数据时,自动生成索引 HAYSTACK_SIGNAL_PROCESSOR = 'haystack.signals.RealtimeSignalProcessor'
3. 在templates目錄下建立「search/indexes/blog/」目錄採用blog應用程式名稱下方建立一個檔案blog_text.txt
#指定索引的屬性
{{ object.title }}
{{ object.text}}
{{ object.keywords }}
4.在需要搜尋的應用程式下方建立search_indexes
from haystack import indexes from models import Post #指定对于某个类的某些数据建立索引 class GoodsInfoIndex(indexes.SearchIndex, indexes.Indexable): text = indexes.CharField(document=True, use_template=True) def get_model(self): return Post #搜索的模型类 def index_queryset(self, using=None): return self.get_model().objects.all()
#
import jieba from whoosh.analysis import Tokenizer, Token class ChineseTokenizer(Tokenizer): def __call__(self, value, positions=False, chars=False, keeporiginal=False, removestops=True, start_pos=0, start_char=0, mode='', **kwargs): t = Token(positions, chars, removestops=removestops, mode=mode, **kwargs) seglist = jieba.cut(value, cut_all=True) for w in seglist: t.original = t.text = w t.boost = 1.0 if positions: t.pos = start_pos + value.find(w) if chars: t.startchar = start_char + value.find(w) t.endchar = start_char + value.find(w) + len(w) yield t def ChineseAnalyzer(): return ChineseTokenizer()
class GoodsSearchView(SearchView): def get_context_data(self, *args, **kwargs): context = super().get_context_data(*args, **kwargs) context['iscart']=1 context['qwjs']=2 return context
url('^search/$', views.BlogSearchView.as_view())
以上是python中如何django使用haystack:全文檢索的框架的實例講解的詳細內容。更多資訊請關注PHP中文網其他相關文章!