@@ -950,42 +950,47 @@ def llama_token_nl(ctx: llama_context_p) -> llama_token:
950950# LLAMA_API int llama_tokenize(
951951# struct llama_context * ctx,
952952# const char * text,
953+ # int text_len,
953954# llama_token * tokens,
954955# int n_max_tokens,
955956# bool add_bos);
956957def llama_tokenize (
957958 ctx : llama_context_p ,
958959 text : bytes ,
960+ text_len : Union [c_int , int ],
959961 tokens , # type: Array[llama_token]
960962 n_max_tokens : Union [c_int , int ],
961963 add_bos : Union [c_bool , int ],
962964) -> int :
963- return _lib .llama_tokenize (ctx , text , tokens , n_max_tokens , add_bos )
965+ return _lib .llama_tokenize (ctx , text , text_len , tokens , n_max_tokens , add_bos )
964966
965967
966- _lib .llama_tokenize .argtypes = [llama_context_p , c_char_p , llama_token_p , c_int , c_bool ]
968+ _lib .llama_tokenize .argtypes = [llama_context_p , c_char_p , c_int , llama_token_p , c_int , c_bool ]
967969_lib .llama_tokenize .restype = c_int
968970
969971
970972# LLAMA_API int llama_tokenize_with_model(
971973# const struct llama_model * model,
972974# const char * text,
975+ # int text_len,
973976# llama_token * tokens,
974977# int n_max_tokens,
975978# bool add_bos);
976979def llama_tokenize_with_model (
977980 model : llama_model_p ,
978981 text : bytes ,
982+ text_len : Union [c_int , int ],
979983 tokens , # type: Array[llama_token]
980984 n_max_tokens : Union [c_int , int ],
981985 add_bos : Union [c_bool , bool ],
982986) -> int :
983- return _lib .llama_tokenize_with_model (model , text , tokens , n_max_tokens , add_bos )
987+ return _lib .llama_tokenize_with_model (model , text , text_len , tokens , n_max_tokens , add_bos )
984988
985989
986990_lib .llama_tokenize_with_model .argtypes = [
987991 llama_model_p ,
988992 c_char_p ,
993+ c_int ,
989994 llama_token_p ,
990995 c_int ,
991996 c_bool ,
0 commit comments