Ученые обнаружили, что искусственные интеллекты, такие как ChatGPT и Bard, склонны к "галлюцинациям", генерируя информацию, которая не имеет основания в данных, на которых они обучались. Иногда такие галлюцинации могут быть полезными, но они также могут создавать проблемы в будущем для AI-индустрии, особенно если AI будет использоваться в сложных ситуациях, где последствия ошибок могут быть серьезными. Для смягчения рисков компании создают ограничения, такие как фильтры для скрытия непристойного и предвзятого контента, а также возможность проверки источников информации.@SeveraAIClub