Twitter решил отказаться от своего алгоритма обрезки фотографий из-за того, что он расистский
Как он работал? Функция задумана так, чтобы выбрать наиболее важный фрагмент в кадре, если тот целиком не умещается в стандартную рамку. Этот обрезок используется в превьюшках.
Вот недавно соцсеть пришла к популярному нынче выводу: да мы все кругом расисты, пора каяться (даешь BlackLivesMatter)!
Случайная выборка показала, что алгоритм предпочитает белокожих женщин темнокожим в 7% случаев, а белых мужчин выбирает чаще темнокожих в 2% случаев.
Более того в 8% случаев Twitter отдавал предпочтение женщинам, а не мужчинам (о, ужас, мужики, нас тоже притесняют! Так еще и в чем? В фоточках!)
Жалобы пользователей на то, что при кадрировании ИИ мог посчитать "интересным" не лицо, а грудь или ноги женщины, не нашли свое подтверждение (а жаль, ведь иногда это правда интереснее).
Select
'Двоичный кот интересуется, кого при обрезке алгоритм выбирал из животных? Кошек или собак? А то тоже в дискриминированные готов себя записать.'
from dual
Как он работал? Функция задумана так, чтобы выбрать наиболее важный фрагмент в кадре, если тот целиком не умещается в стандартную рамку. Этот обрезок используется в превьюшках.
Вот недавно соцсеть пришла к популярному нынче выводу: да мы все кругом расисты, пора каяться (
Случайная выборка показала, что алгоритм предпочитает белокожих женщин темнокожим в 7% случаев, а белых мужчин выбирает чаще темнокожих в 2% случаев.
Более того в 8% случаев Twitter отдавал предпочтение женщинам, а не мужчинам (о, ужас, мужики, нас тоже притесняют! Так еще и в чем? В фоточках!)
Жалобы пользователей на то, что при кадрировании ИИ мог посчитать "интересным" не лицо, а грудь или ноги женщины, не нашли свое подтверждение (а жаль, ведь иногда это правда интереснее).
Select
'Двоичный кот интересуется, кого при обрезке алгоритм выбирал из животных? Кошек или собак? А то тоже в дискриминированные готов себя записать.'
from dual