Изучал вчера информацию про плагины для #ChatGPT, а еще политику безопасности #OpenAI, и заметил, что компания очень боится одной вещи…



Что создатели плагинов будут заменять некоторые диалоги с искусственным интеллектом, на ответы живых людей.



Это когда пользователь думает, что задает вопрос ChatGPT, но на самом деле, на той стороне сидит хитрый индус и от имени машины убеждает вас купить пылесос Кирби.

Компания напрямую говорит о запрете прикидываться искусственным интеллектом в «политике безопасности».



Что еще интересного появится, когда запустят плагины:



- Можно будет предоставить ChatGPT «память». Модель сохранит фрагменты разговора в векторной базе данных для дальнейшего использования (только по запросу пользователя). Эта функция способствует более контекстно-зависимому чату, позволяя запоминать и извлекать информацию из предыдущих разговоров.





- Если раньше ChatGPT умел только выдавать информацию, которой был обучен, то с внедрением плагинов - модель сможет «действовать»: например заказать еду или отправить электронное письмо.





- ChatGPT наконец-то сможет решать математические задачи: появится доступ, как к обычному калькулятору, так и к Wolfram’е для более сложных задач.





- Модель будет меньше галлюцинировать, так как всегда можно попросить проверить информацию в первоисточнике.



Порой мне кажется, что бизнес-модель компании OpenAi - это запустить как можно больше инструментов, интеграции и смотреть, что получится в итоге. Вайб, как в фильме «Планета обезьян» - «Посмотрите на тупых обезьян в клетке, интересно, смогут ли они когда-нибудь научиться пользоваться калькулятором!?».



Силиконовый Мешок