
Педагоги в процессе обучения детей углубляют и собственные знания. Это связано с тем, что преподавание заставляет человека четко структурировать информацию и выявлять пробелы. Оказалось, этот принцип работает и с большими языковыми моделями (LLM).
Китайские ученые из Университета Цинхуа адаптировали методику обучения через преподавание (Learning by Teaching, LBT) для тренировки нейросетей. В ходе опыта мощная модель GPT-4 передавала знания более простой GPT-3.5.
Как это работает
LBT открывает новые перспективы для развития искусственного интеллекта. В OpenAI уже используют новую мощную модель Strawberry для обучения нейросети Orion, которая придет на смену GPT-4o. И, судя по инсайдерской информации, тренировка проходит успешно. К тому же, один «учитель» может натаскивать сразу несколько «учеников». А использование такого подхода для улучшения LLM помогает снизить зависимость от данных, созданных человеком.