Skip to content

Commit 735c684

Browse files
committed
PR clean up
1 parent 6b7b026 commit 735c684

File tree

2 files changed

+0
-19
lines changed

2 files changed

+0
-19
lines changed

llama.cpp

Lines changed: 0 additions & 15 deletions
Original file line numberDiff line numberDiff line change
@@ -12133,14 +12133,6 @@ int32_t llama_n_embd(const struct llama_model * model) {
1213312133
return model->hparams.n_embd;
1213412134
}
1213512135

12136-
int32_t llama_n_layers(const struct llama_model * model) {
12137-
return model->hparams.n_layer;
12138-
}
12139-
12140-
int32_t llama_n_heads(const struct llama_model * model) {
12141-
return model->hparams.n_head;
12142-
}
12143-
1214412136
float llama_rope_freq_scale_train(const struct llama_model * model) {
1214512137
return model->hparams.rope_freq_scale_train;
1214612138
}
@@ -12785,13 +12777,6 @@ void llama_set_n_threads(struct llama_context * ctx, uint32_t n_threads, uint32_
1278512777
ctx->cparams.n_threads_batch = n_threads_batch;
1278612778
}
1278712779

12788-
void llama_get_n_threads(struct llama_context * ctx, uint32_t * n_threads, uint32_t * n_threads_batch) {
12789-
GGML_ASSERT(n_threads);
12790-
GGML_ASSERT(n_threads_batch);
12791-
*n_threads = ctx->cparams.n_threads;
12792-
*n_threads_batch = ctx->cparams.n_threads_batch;
12793-
}
12794-
1279512780
struct llama_batch llama_batch_get_one(
1279612781
llama_token * tokens,
1279712782
int32_t n_tokens,

llama.h

Lines changed: 0 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -376,8 +376,6 @@ extern "C" {
376376
LLAMA_API int32_t llama_n_vocab (const struct llama_model * model);
377377
LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model);
378378
LLAMA_API int32_t llama_n_embd (const struct llama_model * model);
379-
LLAMA_API int32_t llama_n_layers (const struct llama_model * model);
380-
LLAMA_API int32_t llama_n_heads (const struct llama_model * model);
381379

382380
// Get the model's RoPE frequency scaling factor
383381
LLAMA_API float llama_rope_freq_scale_train(const struct llama_model * model);
@@ -635,8 +633,6 @@ extern "C" {
635633
// n_threads is the number of threads used for generation (single token)
636634
// n_threads_batch is the number of threads used for prompt and batch processing (multiple tokens)
637635
LLAMA_API void llama_set_n_threads(struct llama_context * ctx, uint32_t n_threads, uint32_t n_threads_batch);
638-
// Get the number of threads used for decoding
639-
LLAMA_API void llama_get_n_threads(struct llama_context * ctx, uint32_t * n_threads, uint32_t * n_threads_batch);
640636

641637
// Token logits obtained from the last call to llama_eval()
642638
// The logits for the last token are stored in the last row

0 commit comments

Comments
 (0)