Языковая модель с открытым исходным кодом FalconLM оказалась производительнее LLaMA от Meta



FalconLM разрабатывается Институтом технологических инноваций (TII) в Абу-Даби.



В рейтинге Hugging Face OpenLLM Leaderboard, построенном на результатах нескольких бенчмарков, две самые большие модели FalconLM удерживают верхние позиции.



По мнению команды разработчиков, конкурентное преимущество FalconLM обеспечивают оптимизированная архитектура и высококачественный набор данных для обучения. К примеру, модель требовала только 75% вычислительных мощностей в сравнении с GPT-3, при значительном превосходстве над ней.



https://the-decoder.com/falconlm-open-source-language-model-beats-metas-llama/



@aioftheday — новости вокруг искусственного интеллекта