LLM на вашем телефоне



Microsoft выпустила серию LLM моделей Phi-3, которая включает три размера:



🟥mini (3,8 млрд параметров, 69% на MMLU, 8.38 у MT-bench),

🟥small (7 млрд параметров, 75% на MMLU, 8.7 у MT-bench)

🟥medium (14 млрд параметров, 78% on MMLU, 8.9 у MT-bench).



Эти модели разработаны для эффективной работы как на мобильных устройствах, используя передовые наборы данных для достижения высокой производительности.



у phi-3-mini, обученной на 3,3 триллионах токенов, общая производительность конкурирует с такими моделями, как Mixtral 8x7B и GPT-3.5, несмотря на малый размер (требует всего ~2Гб оперативы, в то время, как тот же Mixtral 8x7B — ~22Гб !)



@Unlim_AI