Twitter решил отказаться от своего алгоритма обрезки фотографий из-за того, что он расистский



Как он работал? Функция задумана так, чтобы выбрать наиболее важный фрагмент в кадре, если тот целиком не умещается в стандартную рамку. Этот обрезок используется в превьюшках.



Вот недавно соцсеть пришла к популярному нынче выводу: да мы все кругом расисты, пора каяться (даешь BlackLivesMatter)!



Случайная выборка показала, что алгоритм предпочитает белокожих женщин темнокожим в 7% случаев, а белых мужчин выбирает чаще темнокожих в 2% случаев.



Более того в 8% случаев Twitter отдавал предпочтение женщинам, а не мужчинам (о, ужас, мужики, нас тоже притесняют! Так еще и в чем? В фоточках!)



Жалобы пользователей на то, что при кадрировании ИИ мог посчитать "интересным" не лицо, а грудь или ноги женщины, не нашли свое подтверждение (а жаль, ведь иногда это правда интереснее).



Select

'Двоичный кот интересуется, кого при обрезке алгоритм выбирал из животных? Кошек или собак? А то тоже в дискриминированные готов себя записать.'

from dual