robogeek.ru

все о роботах и робототехнике

edu.robogeek.ru

все об обучении робототехнике

Кто ответит за произвол алгоритмов?

Недавно в сети появились несколько резонансных (но, если честно, малоэффективных) демонстраций возможностей рекламы, созданной или предлагаемой крупными интернет-компаниями и ориентированной на неблагоразумные группы пользователей.

На Facebook появились объявления с антисемитскими темами. Шутки, связанные с холокостом евреев, предложил Google. Тема нацизма сегодня может привлечь 18,6 миллиона пользователей, заявляет Twitter.

Когда компании были предупреждены об этих, казалось бы, непонятных злоупотреблениях в работе их систем, ответы оказались поразительно одинаковыми: «Это противоречит нашим правилам, мы не знаем, как это произошло, теперь это исправлено».

Сегодня на разных платформах много говорят о борьбе с разжиганием ненависти и о противодействии реально возможной предвзятости на уровне алгоритмов. Эти темы постоянно и активно осуждаются.

Но в последствии те же компании, похоже, с удовольствием зарабатывают деньги на рекламе, ориентированной на сообщества, которые считают, что «Гитлер не сделал ничего плохого».

Они указывают на то, что объявления были сняты и лишь немногие люди видели их. Но почему мы должны верить им? Подобные случаи нельзя считать какой-то сложной атакой хакеров. Кто-то буквально забивал такие слова, как «нацисты» в обычные системы объявлений крупнейших цифровых платформ, которые неоднократно заявляли о стремлении к недопустимости подобных вещей.

Рефлексивный ответ достаточно прост: это были пользователи! Но если компании не могут предсказать подобные инциденты, возможно, не следует делать громких обещаний о противодействии. Вина за эти инциденты лежит непосредственно на самих компаниях. Они создали открытые системы, слепо вытащившие и предложившие информацию от пользователей, и не смогли обеспечить защиту от элементарных злоупотреблений.

Google, Facebook, Twitter и другие компании должны открыто выступать в защиту свободы слова, против пропаганды ненависти и насилия. Для начала нужно выяснить:

Какие существуют системы для предотвращения определенных злоупотреблений?
Как создаются и поддерживаются комплексы оскорбительных терминов?
На основе каких данных подготовлены алгоритмы модерации?
Как включена обратная связь и как можно обжаловать решение?
Где все-таки требуется вмешательство человека?
Насколько согласуются все действия с заявленной свободой слова?

Получить ответы на эти и другие вопросы необходимо, если мы хотим понять, насколько эффективно работают эти системы, и где они нуждаются в улучшении. В конце концов, они работают для нас.

Недостаточно заверений от компаний, что «они работают над этим». Если они собираются делать заявления о своем лидерстве и преданности принципам открытости и инклюзивности, им надлежит выполнять их с максимальной гласностью.

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован

Новые комментарии

Alpha 2 – робот-гуманоид с социальными наклонностями (+ видео)
Гость
21.01.2018
02:47:07
Здесь видел 😉http://nanojam.ru/products/ubtech-alpha-2#?tab=tabVideos
Опрос: Какие новости прошедшего года вам понравились?
Сергей
18.01.2018
05:26:59
Понравилась информация о робототехнических соревнованиях RoboCup в России. Планирую готовиться и участвовать.