Nvidia выпустила решение, делающее генеративный ИИ «более безопасным»
Современный генеративный ИИ может допускать в ответах ошибки, в том числе и вредные. Создатели больших языковых моделей пытаются решить эту проблему, например, внедряя фильтры и группы модераторов.
NeMo Guardrails — набор инструментов от Nvidia с открытым исходным кодом, предназначенный для работы с большинством языковых моделей. В частности, Guardrails можно использовать, чтобы предотвратить случаи, когда ИИ отклоняется от темы, отвечает неточной информацией или токсичным языком и устанавливает связь с «небезопасными» внешними источниками.
В Nvidia заранее признали, что Guardrails — не универсальный инструмент и не сможет отловить все случаи нежелательного поведения ИИ, особенно если речь идет о моделях с открытым исходным кодом.
https://techcrunch.com/2023/04/25/nvidia-releases-a-toolkit-to-make-text-generating-ai-safer/
—
@aioftheday — новости вокруг искусственного интеллекта
Современный генеративный ИИ может допускать в ответах ошибки, в том числе и вредные. Создатели больших языковых моделей пытаются решить эту проблему, например, внедряя фильтры и группы модераторов.
NeMo Guardrails — набор инструментов от Nvidia с открытым исходным кодом, предназначенный для работы с большинством языковых моделей. В частности, Guardrails можно использовать, чтобы предотвратить случаи, когда ИИ отклоняется от темы, отвечает неточной информацией или токсичным языком и устанавливает связь с «небезопасными» внешними источниками.
В Nvidia заранее признали, что Guardrails — не универсальный инструмент и не сможет отловить все случаи нежелательного поведения ИИ, особенно если речь идет о моделях с открытым исходным кодом.
https://techcrunch.com/2023/04/25/nvidia-releases-a-toolkit-to-make-text-generating-ai-safer/
—
@aioftheday — новости вокруг искусственного интеллекта