Python 3.11 と最新バージョンの llama-cpp-python および
a を実行しています。 gguf
モデル
コードをチャットボットのように正常に実行したいのですが、次のエラーが発生します:
リーリーこれは私のトークン化コードです:
traceback (most recent call last): file "d:\ai custom\ai arush\server.py", line 223, in <module> init() file "d:\ai custom\ai arush\server.py", line 57, in init m_eval(model, m_tokenize(model, prompt_init, true), false, "starting up...") ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ file "d:\ai custom\ai arush\server.py", line 182, in m_tokenize n_tokens = llama_cpp.llama_tokenize( ^^^^^^^^^^^^^^^^^^^^^^^^^ typeerror: llama_tokenize() missing 2 required positional arguments: 'add_bos' and 'special'
def m_tokenize(model: llama_cpp.Llama, text: bytes, add_bos=False, special=False): assert model.ctx is not None n_ctx = llama_cpp.llama_n_ctx(model.ctx) tokens = (llama_cpp.llama_token * int(n_ctx))() n_tokens = llama_cpp.llama_tokenize( model.ctx, text, tokens, n_ctx, llama_cpp.c_bool(add_bos), ) if int(n_tokens) < 0: raise RuntimeError(f'Failed to tokenize: text="{text}" n_tokens={n_tokens}') return list(tokens[:n_tokens])
このエラーを解決するには、パラメータ add_bos
と special
を llama_tokenize()
関数に含める必要があります。
llama_cpp.py (github) a> より、1817 から始まる行
リーリー以上がTypeError: llama_tokenize() に 2 つの必須の位置引数がありません: 'add_bos' と 'special'の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。