MosaicML открыла исходный код LLM с 30 миллиардами параметров
По утверждению разработчиков, новая модель MPT-30B производительнее GPT-3, а в некоторых областях, таких как работа с кодом, она лучше LLaMA и Falcon.
MPT-30B может использоваться в коммерческих целях.
https://huggingface.co/mosaicml/mpt-30b
—
@aioftheday — новости вокруг искусственного интеллекта
По утверждению разработчиков, новая модель MPT-30B производительнее GPT-3, а в некоторых областях, таких как работа с кодом, она лучше LLaMA и Falcon.
MPT-30B может использоваться в коммерческих целях.
https://huggingface.co/mosaicml/mpt-30b
—
@aioftheday — новости вокруг искусственного интеллекта