☄️ Новости из мира текстовых нейронок



🪅Microsoft представила Phi-3 Mini — самую маленькую модель из запланированных

У Phi-3 Mini насчитывается 3.8 млрд параметров (да, это считается малым количеством). Модель также обучалась на меньшем наборе данных, чем, например, GPT-4.



По сравнению со своими более крупными аналогами, небольшие ИИ-модели часто дешевле в эксплуатации и лучше работают на персональных устройствах, таких как смартфоны и ноутбуки.



🪅Apple выпустила четыре маленькие модели, которые, возможно, будут использоваться в iPhone

Компания опубликовала на Hugging Face серию моделей OpenELM. Они должны эффективно работать с задачами, связанными с текстом, например, с генерацией писем. Размеры у моделей такие: 270 млн, 450 млн, 1.1 млрд и 3 млрд параметров. Не исключено, что подобные модели будут работать локально в устройствах Apple.



🪅Глава NVIDIA лично привёз в офис OpenAI ИИ-ускорители

Речь идёт об ускорителях DGX H200. Так, OpenAI получила самое мощное в мире оборудование для обучения моделей. А тот факт, что офис посетил глава NVIDIA Дженсен Хуанг, свидетельствует о важности партнёрства между компаниями.



🪅«Тинькофф» представил «вселенную AI-ассистентов»

Это персональные помощники, которые могут подстраиваться под запросы человека и дают персонализированный ответ с рекомендациями или подборкой товаров. Всего представлено шесть ассистентов. В ближайшее время все они будут доступны пользователям в приложениях «Тинькофф» для IOS и Android, а часть из них — ещё и в Telegram.