Яндекс.Метрика

Студийный фотофильтр TikTok с искусственным интеллектом осветляет кожу и делает людей стройнее

Расистские и жирофобские предубеждения искусственного интеллекта в полной мере проявились в последнем фильтре на основе ИИ, получившем широкое распространение на сайте TikTok.

\"Студийный

AI studio photo - фильтр TikTok, который был использован в видеороликах почти 4 млн. раз, курсы по обработке фотографий превращают фотографии пользователей в профессиональные снимки из другого времени. Многие конечные результаты выглядят как фотографии 1940-х годов, причем фильтр, похоже, учитывает общественные предрассудки того времени при создании конечных изображений.

В видеоролике TikTok, опубликованном на прошлой неделе, азиатка Э.Л. Шен показывает, как фильтр взял ее лицо и превратил в белую голубоглазую женщину. Шен написала в наложенном на видео тексте, что она пробовала использовать фильтр восемь раз, и каждый раз он превращал ее в \"белую женщину, которая должна была подписать закон об исключении китайцев\". Закон об исключении китайцев - это закон 1880-х годов, запрещавший иммиграцию из Китая в США в течение десяти лет.

TikToker Drae (@coyoteugly2.0) также сообщила, что фотофильтр AI studio осветлил ее кожу: Drae, темнокожая женщина, показывает, что фильтр сделал ее цвет кожи значительно светлее.

\"Они забрали твой меланин\", - написал один из комментаторов к видеоролику Дрэ.

Причем фильтр не только изменяет цвет кожи людей, но и форму их лиц. Эбби Моррис (@morethantracyt), которая осуждала другие фильтры TikTok за их жирофобию, показывает, как студийный фотофильтр AI сделал ее лицо более худым.

\"Вы не убедите меня в том, что я должна стать частью ИИ, пока одна из этих тенденций не сделает меня толстой\", - написала Моррис в подписи к своему видео.

Почему это важно

Возможность увидеть себя в стиле старинного портрета предоставляется только белым, худым людям. Если ваше тело отклоняется от этого, фильтр не будет работать на вас так же хорошо, и это несправедливо и дискриминационно.

Мы знаем, что искусственный интеллект предвзят, потому что системы, на которых он учится, также предвзяты. Но почему новые версии искусственного интеллекта не разрабатываются таким образом, чтобы избежать расизма и жирофобии, присущих их предшественникам? Тем более что создатели TikTok то и дело указывают на эти проблемы?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *