💻 GPT уже выдает настолько качественные тексты, что их сложно отличить от созданных человеком. Это приводит к курьезным ситуациям. Так, московский предприниматель Павел Лебедев отправлял в СМИ тексты нейросети под видом экспертных заключений.



📰 Весной 2023 года в течение недели он пропускал через ChatGPT журналистские запросы. Ответы нейросети он отправлял как свое экспертное мнение. Несколько крупных российских изданий опубликовали материалы с его комментариями. Например, в «Известиях» он рассказал, как избавиться от тараканов в доме, в «Аргументах и фактах» дал советы по поиску недвижимости, а в «Комсомольской правде» подготовил рекомендации по выбору жидких гвоздей.



🔍 Позднее Лебедев признался, что проводил эксперимент, с помощью которого он «доказал», что каждый может стать «известным» экспертом в любой области. В то же время он считает, что сгенерированный нейросетью контент является качественным, и что его действия не наносят вреда работе журналистов.



🃏 И действительно: обвинить экспериментатора в плагиате нельзя, потому что на нейросети не распространяется законодательство об авторском праве. Если созданные GPT тексты не содержат фактических ошибок и корректно описывают тему, то чем они хуже человеческих? Как минимум нейросеть можно использовать для подготовки коротких новостей. Но с обязательной проверкой.



Напишите, что вы думаете об этом 🖌



#ИскусственныйИнтеллект #ТехнологииБудущего #ИИвПовседневнойЖизни #ChatGPT #Инновации #Кейсы