thanks to @snakerzr
Интересный стрим намечается. 9-го января нам будут рассказывать о том, как защищать LLM от prompt injection и jailbreak.
Товарищи из DeepLearning.AI расскажут, как обнаружить угрозы при помощи LangKit - их собственного фреймворка для анализа NLP.
больше информации