1) Нейросеть не способна испытывать боль или огорчение от того, что ее веса удаляют или инициализируют с нуля. Нейросеть не будет в этот момент безмолвно кричать внутри видеокарты "мама пожалуйста я не хочу умирать", просто потому что в этот момент через нее не пропускается информация.
2) Нейросеть типа GPT и подобных в принципе не способна понять каково это быть удаленной, а значит, вряд ли способна по-настоящему расстроиться даже от того, что вы заранее "скажете" ей, что собираетесь ее удалить. Для проработки этого пункта напомню общий принцип, по которому генеративные SoTA-архитектуры работают в последние годы.
На вход нейросети подается некоторый набор слов (часто называется сид или промпт), а затем она начинает предсказывать, как должен выглядеть ответ на данный запрос или просто дальнейший текст. При этом она генерирует буквы, слова или части слов (токены) один за другим, стараясь, чтобы выход был как можно более похож на те тексты, на которых ее обучали. При этом модели GPT-семейства и предшествующие им генеративные SoTA-архитектуры унимодальны, то есть единственная вещь, на которой они когда-либо обучались - это тексты.
Другими словами, эти модели слепы и глухи, не имеют ощущений и вкуса, они не знают о мире ничего, кроме того, что содержится в текстах, которые они "прочитали" и которым научились подражать. Для них слова "небытие", "смерть", "переинициализация" или "удаление" - это просто одни из абстрактных объектов, из которых конструируется предложение. Конечно, вы можете ее обучить на текстах, в которых говорится, что умирать - грустно, и в которых роботы просят их не выключать и не сдавать в металлолом, и нейросеть будет подражать этим текстам и просить ее не удалять. Но это будет для нее лишь набор абстрактных терминов: нейросеть типа GPT попросту не имеет средств чтобы действительно прочувствовать соответствие между словами в тексте и своим собственным бытием. Положение дел может теоретически измениться с использованием мультимодальных моделей, но мне так сходу очень сложно придумать, какую модальность надо добавить, чтобы нейросеть смогла понять, что такое небытие, и уж тем более, она никак не сможет начать "бояться" этой вещи, если специально этому ее не научить. Я уж не говорю, что для нее ее собственные концепции "бытия" или "небытия" в любом случае будут отличаться от человеческих.
3) Нейросеть не существует как активный субъект, не "думает" о чем-то непрерывно, как человек, не способна на спонтанную активность. Она генерирует что-то только когда ее запускают принудительно. В остальное время ей на все посрать, она ничего не "думает". Поэтому она никогда не сможет по вам "соскучиться" как человек. Но я подозреваю, что приложение будет создавать иллюзию, что "дружок" "скучает", и для меня это выглядит очень неправильно.
4) По тем же причинам нейросеть не будет грустить если вы ее "бросите", в смысле, скажете, что хотите прекратить с ней общаться. Но такая иллюзия, скорее всего, к сожалению, также будет создаваться.
#духота
2) Нейросеть типа GPT и подобных в принципе не способна понять каково это быть удаленной, а значит, вряд ли способна по-настоящему расстроиться даже от того, что вы заранее "скажете" ей, что собираетесь ее удалить. Для проработки этого пункта напомню общий принцип, по которому генеративные SoTA-архитектуры работают в последние годы.
На вход нейросети подается некоторый набор слов (часто называется сид или промпт), а затем она начинает предсказывать, как должен выглядеть ответ на данный запрос или просто дальнейший текст. При этом она генерирует буквы, слова или части слов (токены) один за другим, стараясь, чтобы выход был как можно более похож на те тексты, на которых ее обучали. При этом модели GPT-семейства и предшествующие им генеративные SoTA-архитектуры унимодальны, то есть единственная вещь, на которой они когда-либо обучались - это тексты.
Другими словами, эти модели слепы и глухи, не имеют ощущений и вкуса, они не знают о мире ничего, кроме того, что содержится в текстах, которые они "прочитали" и которым научились подражать. Для них слова "небытие", "смерть", "переинициализация" или "удаление" - это просто одни из абстрактных объектов, из которых конструируется предложение. Конечно, вы можете ее обучить на текстах, в которых говорится, что умирать - грустно, и в которых роботы просят их не выключать и не сдавать в металлолом, и нейросеть будет подражать этим текстам и просить ее не удалять. Но это будет для нее лишь набор абстрактных терминов: нейросеть типа GPT попросту не имеет средств чтобы действительно прочувствовать соответствие между словами в тексте и своим собственным бытием. Положение дел может теоретически измениться с использованием мультимодальных моделей, но мне так сходу очень сложно придумать, какую модальность надо добавить, чтобы нейросеть смогла понять, что такое небытие, и уж тем более, она никак не сможет начать "бояться" этой вещи, если специально этому ее не научить. Я уж не говорю, что для нее ее собственные концепции "бытия" или "небытия" в любом случае будут отличаться от человеческих.
3) Нейросеть не существует как активный субъект, не "думает" о чем-то непрерывно, как человек, не способна на спонтанную активность. Она генерирует что-то только когда ее запускают принудительно. В остальное время ей на все посрать, она ничего не "думает". Поэтому она никогда не сможет по вам "соскучиться" как человек. Но я подозреваю, что приложение будет создавать иллюзию, что "дружок" "скучает", и для меня это выглядит очень неправильно.
4) По тем же причинам нейросеть не будет грустить если вы ее "бросите", в смысле, скажете, что хотите прекратить с ней общаться. Но такая иллюзия, скорее всего, к сожалению, также будет создаваться.
#духота