➡️ Чтобы чат бот пользовался большей памятью, нужно в Параметрах модели увеличить количество токенов для контекста.



🔻 Обычно это половина максимального объема модели. Если модель GPT-3.5-turbo-16k имеет 16000 токенов, то желательно указать 8000.



🔻 Такое соотношение нужно, чтобы половина токенов тратилась на запрос, и остальная половина использовалась на ответ.



❤️ ChatGPT ваш помощник