Минута терминологии. Саймон Уилсон, который и придумал термин prompt injection, обращает внимание, что попытки обхода механизмов безопасности или цензуры, встроенных в модель – это джейлбрейкинг, а prompt injection – это попытка обойти логику приложения за счет конкатенации доверенного и недоверенного входа. В данном случае, как мне кажется, исследователи смешивают инъекции (в примере с SQL) с джейлбрейком (в примере с Микки-Маусом), и на самом деле они говорят вообще о третьей вещи, а именно о об обходе фильтров (обфускация/контрабанда токенов), т.е. технике, которая может применяться в обеих этих атаках.