Anthropic увеличила контекст своей языковой модели до 100 тысяч токенов
Теперь языковая модель Claude может принимать во внимание 100 тысяч токенов. Если говорить упрощенно, то это 100 тысяч слов или слогов. Для сравнения, GPT-4 может помнить до 32 тысяч токенов.
Размер контекста отвечает за память языковой модели. Чем он больше, тем более объемные тексты модель может обрабатывать. В Anthropic рассказали, что с помощью Claude будет удобно работать с большими финансовыми отчетами, юридическими документами и технической документацией.
https://techcrunch.com/2023/05/11/anthropics-latest-model-can-take-the-great-gatsby-as-input/
—
@aioftheday — новости вокруг искусственного интеллекта
Теперь языковая модель Claude может принимать во внимание 100 тысяч токенов. Если говорить упрощенно, то это 100 тысяч слов или слогов. Для сравнения, GPT-4 может помнить до 32 тысяч токенов.
Размер контекста отвечает за память языковой модели. Чем он больше, тем более объемные тексты модель может обрабатывать. В Anthropic рассказали, что с помощью Claude будет удобно работать с большими финансовыми отчетами, юридическими документами и технической документацией.
https://techcrunch.com/2023/05/11/anthropics-latest-model-can-take-the-great-gatsby-as-input/
—
@aioftheday — новости вокруг искусственного интеллекта