Jlama Native


Jlama Native

Jlama: A fast java inference engine for LLMs

Версия Репозиторий Использование Дата
0.2.x 0.2.0 central июн. 23, 2024
0.1.x 0.1.0 central мар. 11, 2024