ИИ-новинки NVIDIA на GTC



Вчера NVIDIA показала новые видеокарты. Но мне куда интереснее другой анонс — сервисы NeMo LLM и BioNeMo LLM, которые упрощают адаптацию больших языковых моделей и развёртывание приложений на базе ИИ.



Проблема в том, что разработка и обучение LLM обходится дорого. Говорят, на недавнюю PaLM от Google потратили минимум девять миллионов долларов (а возможно, и в два раза больше). Да и времени это занимает немало: обычно несколько недель или даже месяцев.



По словам представителей NVIDIA, с помощью новых инструментов можно будет создавать модели размерами от 3 до 530 млрд параметров. И это займёт часы или даже минуты!



Такая высокая скорость достигается за счёт того, что модели не придётся разрабатывать с нуля — можно будет адаптировать уже существующие базовые (с помощью метода prompt learning). Для этого достаточно «скормить» нейросети всего несколько сотен примеров. Фишка ещё и в том, что одну и ту же модель получится настраивать для нескольких вариантов использования.



На презентации мельком упомянули функцию playground — она позволит «играться», то есть экспериментировать с моделями без использования кода. Видимо, нейросетки можно будет настраивать с помощью текстовых подсказок или других инструментов. В любом случае, настройка станет доступнее.



После развёртывания модель можно будет запускать в облаке, локально или через API.



Платформа BioNeMo LLM предназначена для учёных, занимающихся естественными науками. Инструмент поддерживает форматы данных о белках, ДНК и РНК. Другими словами, он поможет лучше понимать болезни и находить для них лечение. А ещё фреймворк включает две новые языковые модели, которые работают с приложениями в области химии и биологии.



Пока разработчики не назвали точную дату релиза. Но ожидается, что NeMo LLM и BioNeMop LLM откроются в раннем доступе уже в октябре. А сторонние разработчики могут подать заявку уже сейчас.