Новые данные (gpt4_conversations_multilingual) и щепотка дедупликации сделали только чуть-чуть хуже. Причём я нашёл конфиг с рекордно минимальным лоссом на валидации, но это не помогло. Но! Там есть очень длинные диалоги, возможно это поможет утилизировать весь контекст.



Дальше буду делать вот что:

- Попробую более ранние чекпоинты, не оптимальные по лоссу на валидации.

- Обучение поверх Suzume.

- Проверю на других бенчмарках типа MT-Bench'а и zero-shot RSG.



В комментах ещё скинули слияние Suzume и Сайги: Llama-3-8B-saiga-suzume-ties, это тоже оценю.



P.S. Летал в Белград и сейчас полечу обратно, поэтому немножко тяжело сейчас что-то разумное делать. Лёгкое похмелье не помогает.