This media is not supported in your browser
VIEW IN TELEGRAM
Prima.cpp: инструмент для запуска LLM на домашнем кластере с минимальным потреблением памяти
Этот форк llama.cpp позволяет запускать тяжёлые LLM-ки локально с минимальным потреблением памяти (менее 10%). И задействовать кластер из нескольких устройств — ноутбуков, ПК или даже телефонов. Благодаря оптимизированной загрузке, параллельной обработке и CPU/GPU offloading, inference тянет даже llm-ки масштаба 70B на скромных домашних кластерах.
Такое мы сохраняем 👍
#llm
Айтишная реальность
Этот форк llama.cpp позволяет запускать тяжёлые LLM-ки локально с минимальным потреблением памяти (менее 10%). И задействовать кластер из нескольких устройств — ноутбуков, ПК или даже телефонов. Благодаря оптимизированной загрузке, параллельной обработке и CPU/GPU offloading, inference тянет даже llm-ки масштаба 70B на скромных домашних кластерах.
Такое мы сохраняем 👍
#llm
Айтишная реальность
👍4👏4🤬1