Привет.



Мы тут экспериментируем с instruct-моделями для русского. Вот их список:



instruct_rugptlarge

rugpt_medium_turbo_instructed

rugpt_large_turbo_instructed

rut5_large_turbo_instructed

mt0_xxl_ru_turbo_alpaca_lora

llama_7b_ru_turbo_alpaca_lora





Последняя - русский аналог Стенфордской Альпаки. Изначально я думал, что это не будет работать из-за того, что в обучении из русского там была только ru-wiki, но кажется я ошибся. Работает приемлемо. Насколько приемлемо будем ещё измерять. В карточке есть ссылка на Колаб, а также Spaces (он будет жить ещё 24 часа).



Код обучения и сборки датасета: https://github.com/IlyaGusev/rulm/tree/master/self_instruct.



Что касается датасета, он увеличился до 30к, там добавилась разметка для 3.5к примеров (спасибо всем разметчикам!), а также колонка с альтернативными ответами от ChatGPT, когда её спрашивают каждое задание по отдельности.



Теперь о деньгах. Суммарно 70$ ушло на ChatGPT API для сборки датасета, и 120$ на вычислительные ресурсы для всех экспериментов. Хотите помочь деньгами?

Ссылка для тех, кто не в России: PayPal

Для тех кто в России: Cloudtips



P.S.: "мы" это @alexkuk, @alexnikolich, @YallenGusev, @chckdskeasfsd, @dno5iq