Сбер открыл доступ к модели, на которой основан GigaChat.



Большая языковая модель ruGPT-3.5 имеет 13 миллиардов параметров и может использоваться для решения широкого круга задач. Длина контекста — 2048 токенов. К примеру, рассказ Чехова "Хамелеон" разобьется на 1650 токенов.



Модель выложена на Hugging Face под лицензией MIT.



————————————————

@DeepTechNET - Канал про тренды из мира IT, технологий, нейросетей и бизнеса.