Языковая модель с открытым исходным кодом FalconLM оказалась производительнее LLaMA от Meta
FalconLM разрабатывается Институтом технологических инноваций (TII) в Абу-Даби.
В рейтинге Hugging Face OpenLLM Leaderboard, построенном на результатах нескольких бенчмарков, две самые большие модели FalconLM удерживают верхние позиции.
По мнению команды разработчиков, конкурентное преимущество FalconLM обеспечивают оптимизированная архитектура и высококачественный набор данных для обучения. К примеру, модель требовала только 75% вычислительных мощностей в сравнении с GPT-3, при значительном превосходстве над ней.
https://the-decoder.com/falconlm-open-source-language-model-beats-metas-llama/
—
@aioftheday — новости вокруг искусственного интеллекта
FalconLM разрабатывается Институтом технологических инноваций (TII) в Абу-Даби.
В рейтинге Hugging Face OpenLLM Leaderboard, построенном на результатах нескольких бенчмарков, две самые большие модели FalconLM удерживают верхние позиции.
По мнению команды разработчиков, конкурентное преимущество FalconLM обеспечивают оптимизированная архитектура и высококачественный набор данных для обучения. К примеру, модель требовала только 75% вычислительных мощностей в сравнении с GPT-3, при значительном превосходстве над ней.
https://the-decoder.com/falconlm-open-source-language-model-beats-metas-llama/
—
@aioftheday — новости вокруг искусственного интеллекта