
Рейтинг оценки лидеров больших языковых моделей (LLM) от LMSYS - huggingface:
Arena Elo Rating - рейтинг на основе более 70 тысяч анонимных голосов Chatbot Arena (эталонная платформа для больших языковых моделей);
MT-Bench(score) - оценка с помощью судейства LLM;
MMLU - тест для измерения точности понимания языка при многозадачности текстовой модели, включает 57 задач.
В первый день октября рейтинг LLM аналогичен последним неделям сентября, пока в голосах среди первой десятки моделей стабильность.
Arena Elo Rating - рейтинг на основе более 70 тысяч анонимных голосов Chatbot Arena (эталонная платформа для больших языковых моделей);
MT-Bench(score) - оценка с помощью судейства LLM;
MMLU - тест для измерения точности понимания языка при многозадачности текстовой модели, включает 57 задач.
В первый день октября рейтинг LLM аналогичен последним неделям сентября, пока в голосах среди первой десятки моделей стабильность.