Сбер открыл доступ к модели, на которой основан GigaChat



Большая языковая модель ruGPT-3.5 имеет 13 миллиардов параметров и может использоваться для решения широкого круга задач. Длина контекста — 2048 токенов. К примеру, рассказ Чехова "Хамелеон" разобьется на 1650 токенов.



Модель выложена на Hugging Face под лицензией MIT: https://huggingface.co/ai-forever/ruGPT-3.5-13B



https://habr.com/ru/companies/sberbank/articles/746736/



@aioftheday — новости вокруг искусственного интеллекта