Сбер открыл доступ к модели, на которой основан GigaChat
Большая языковая модель ruGPT-3.5 имеет 13 миллиардов параметров и может использоваться для решения широкого круга задач. Длина контекста — 2048 токенов. К примеру, рассказ Чехова "Хамелеон" разобьется на 1650 токенов.
Модель выложена на Hugging Face под лицензией MIT: https://huggingface.co/ai-forever/ruGPT-3.5-13B
https://habr.com/ru/companies/sberbank/articles/746736/
—
@aioftheday — новости вокруг искусственного интеллекта
Большая языковая модель ruGPT-3.5 имеет 13 миллиардов параметров и может использоваться для решения широкого круга задач. Длина контекста — 2048 токенов. К примеру, рассказ Чехова "Хамелеон" разобьется на 1650 токенов.
Модель выложена на Hugging Face под лицензией MIT: https://huggingface.co/ai-forever/ruGPT-3.5-13B
https://habr.com/ru/companies/sberbank/articles/746736/
—
@aioftheday — новости вокруг искусственного интеллекта