Исследователи из Стэнфордского и Колумбийского университетов предположили, что результаты оценки LLM (больших языковых моделей) могут быть ненадежными, так как многие используемые для их обучения бенчмарки и датасеты находятся в открытом доступе на GitHub. Возможно, эти данные уже могли быть использованы для обучения моделей, что ставит под вопрос их эффективность.
Авторы предложили новый метод для оценки риска “утечки” (попадания в обучающую выборку) датасетов, предполагающий демонстрацию набора тестов модели в двух вариантах: в исходном порядке следования тестов в датасете и в перемешанном виде.
В результате эксперимента на нескольких LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) было установлено статистически значимое различие в качестве решения задач моделью, что подтверждает эффективность предложенного метода.
Интересно проверить другие более популярные модели. Возможно, что одна из причин галлюцинирования LLM как раз "утечки" данных при обучении.
Подписаться на Нейроскептик
Авторы предложили новый метод для оценки риска “утечки” (попадания в обучающую выборку) датасетов, предполагающий демонстрацию набора тестов модели в двух вариантах: в исходном порядке следования тестов в датасете и в перемешанном виде.
В результате эксперимента на нескольких LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) было установлено статистически значимое различие в качестве решения задач моделью, что подтверждает эффективность предложенного метода.
Интересно проверить другие более популярные модели. Возможно, что одна из причин галлюцинирования LLM как раз "утечки" данных при обучении.
Подписаться на Нейроскептик