🤬 Генераторы изображений на базе ИИ обучаются на откровенных фотографиях детей



Стэндфордская интернет-обсерватория выяснила, что систему искусственного интеллекта Stable Diffusion обучили на большом количестве незаконных материалов, содержащих сцены сексуального насилия над детьми (CSAM-контент). В отчете организация проанализировала набор данных для машинного обучения LAION, используемый Google, Stable Diffusion и другими крупными игроками на рынке искусственного интеллекта.



Исследователи обнаружили более 3 тыс. единиц CSAM-контента в наборе данных LAION-5B. Это открытие подчеркивает опасность неизбирательного сбора данных из интернета для создания генеративного искусственного интеллекта. Публичные чаты руководства LAION на официальном сервере Discord организации показывают, что они знали о возможности включения CSAM-контента в их наборы данных еще в 2021 году.