Big Tech решает за вас — компании обучают свои алгоритмические системы на миллионах наших данных

Big Tech решает за вас — компании обучают свои алгоритмические системы на миллионах наших данных
Крупнейшие технологические компании создают мощные алгоритмы на основе ваших данных — и вы не имеете права голоса в этом процессе! Именно к такому выводу пришёл последний индекс Ranking Digital Rights: Big Tech Edition.

В Ranking Digital Rights оценили, проводят ли компании оценку воздействия своих алгоритмических систем на права человека и раскрывают ли информацию о разработке и применении алгоритмов.

Исследование показало, что большинство крупных технологических компаний продемонстрировали слабые результаты в вопросах алгоритмической прозрачности. Лишь немногие раскрывают, как разрабатываются, обучаются и используются их алгоритмы, а ещё меньше компаний предоставляют пользователям реальный контроль над своими данными.

Среди виртуальных ассистентов AliGenie от Alibaba занял первое место по уровню прозрачности. Siri от Apple и Alexa от Amazon оказались на последнем — хотя только они предлагают хоть какой-то пользовательский контроль. Google Assistant, несмотря на то, что используется более чем на миллиарде устройств, вообще не раскрыл информацию об использовании данных и возможностях управления ими.

В сфере социальных сетей наиболее прозрачным оказался TikTok, чётко объяснив, как работает его алгоритм рекомендаций, и прямо указав, что по умолчанию используется пользовательская информация. В то же время большинство платформ не раскрывают, могут ли пользователи как-либо управлять использованием их данных при разработке алгоритмов.

Несмотря на отдельные позитивные шаги — например, частичная оценка рисков для свободы выражения у Meta или включение конфиденциальности в принципы ИИ у Alphabet — в целом уровень прозрачности остаётся низким. По состоянию на 2025 год менее половины компаний проводят оценки воздействия своих алгоритмов на права человека, и только Samsung представила чёткую и открыто сформулированную политику в области прав человека, касающуюся разработки и применения алгоритмических систем.

В Казахстане DRCQ также проводит собственное исследование на основе методологии RDR. Анализ показал, что большинство компаний на местном рынке не раскрывают информацию об использовании алгоритмических систем в своих политиках. Алгоритмы остаются "чёрным ящиком" — ни прозрачности, ни пользовательского контроля.

В целом, прозрачность в отношении алгоритмических систем по-прежнему остаётся недостаточной во всей отрасли, оставляя пользователей в уязвимом положении перед непрозрачными и потенциально вредными практиками обработки данных.

Кстати, мы приглашаем вас на наш Курс по искусственному интеллекту от Школы Киберправа, где мы подробно разбираем, как алгоритмы влияют на наши свободы и что с этим можно сделать.

Подробнее о Курсе по ИИ — https://cyberlaw.kz/ai