@@ -559,6 +559,7 @@ json format_generation_settings(llama_server_context &llama) {
559
559
{ " n_keep" , llama.params .n_keep },
560
560
{ " ignore_eos" , ignore_eos },
561
561
{ " stream" , llama.stream },
562
+ { " logit_bias" , llama.params .logit_bias },
562
563
};
563
564
}
564
565
@@ -650,10 +651,10 @@ bool parse_options_completion(json body, llama_server_context& llama, Response &
650
651
} else {
651
652
llama.params .seed = time (NULL );
652
653
}
654
+
655
+ llama.params .logit_bias .clear ();
653
656
if (!body[" ignore_eos" ].is_null () && body[" ignore_eos" ].get <bool >()) {
654
657
llama.params .logit_bias [llama_token_eos ()] = -INFINITY;
655
- } else {
656
- llama.params .logit_bias .erase (llama_token_eos ());
657
658
}
658
659
if (body[" logit_bias" ].is_array ()) {
659
660
int n_vocab = llama_n_vocab (llama.ctx );
@@ -665,6 +666,7 @@ bool parse_options_completion(json body, llama_server_context& llama, Response &
665
666
}
666
667
}
667
668
}
669
+
668
670
if (!body[" prompt" ].is_null ()) {
669
671
llama.params .prompt = body[" prompt" ].get <std::string>();
670
672
} else {
@@ -673,6 +675,7 @@ bool parse_options_completion(json body, llama_server_context& llama, Response &
673
675
res.status = 400 ;
674
676
return false ;
675
677
}
678
+
676
679
llama.params .antiprompt .clear ();
677
680
if (!body[" stop" ].is_null ()) {
678
681
const auto stop = body[" stop" ].get <std::vector<std::string>>();
0 commit comments