Исследование относительно рекомендательных алгоритмов

Исследование относительно рекомендательных алгоритмов

Рекомендательные алгоритмы: польза или вред?

Одно из самых распространенных приложений машинного обучения сегодня - это алгоритмы рекомендаций. Netflix и YouTube используют их для показа новых видео и сериалов; Google и Facebook используют их для ранжирования контента в результатах поиска и новостной ленте. Хотя эти алгоритмы созданы для удобства пользователей, они имеют некоторые недостатки. А именно “пузырь фильтров” и “эхо комната”.
Озабоченность этими явлениями не нова. В 2011 году Эли Паризер, ныне генеральный директор Upworthy, предупредил о появлении пузырей в своем TED-выступлении. Еще до этого в своей книге Republic.com профессор права Гарварда, Касс Санстейн, точно предсказал эффект «групповой поляризации», вызванный развитием Интернета, который в конечном итоге бросит вызов здоровой демократии.
Обе идеи получили огромную популярность после выборов США 2016 года, которые привели к всплеску соответствующих исследований. Теперь же дочерняя компания Google, DeepMind, также принялась изучать эти явления.
В новой статье исследователи проанализировали, как различные алгоритмы могут ускорить или замедлить оба эффекта. “Эхо комнаты”, по их словам, усиливают интерес пользователей за счет многократного контакта с подобным контентом. “Пузыри фильтров”, для сравнения, сужают объем контента, которому подвергаются пользователи.

Суть рекомендательных алгоритмов

DeepMind запустили моделирование пяти различных алгоритмов, которые установили разные степени приоритета для точного прогнозирования того, что именно интересовало пользователя, при случайном продвижении нового контента. Они обнаружили, что алгоритмы, которые придают более высокий приоритет точности, приводят к гораздо более быстрому вырождению системы. Другими словами, лучший способ борьбы с “пузырями фильтров” или “эхо комнатами” - это разработка алгоритмов, которые будут демонстрировать вещи, что менее интересны для определенных юзеров.

Джозеф А. Констан, профессор компьютерных наук в Университете Миннесоты, который ранее проводил исследования о “пузырях фильтров”, говорит, что результаты анализа DeepMind не оказались неожиданностью. По его словам, исследователи давно поняли разницу между точным прогнозом и эффективным исследованием в системах рекомендаций.
Несмотря на проведенные в прошлом исследования, показывающие, что пользователи готовы мириться с более низкими уровнями точности, для получения более разнообразных рекомендаций, разработчики по-прежнему не хотят создавать свои алгоритмы таким образом, утверждают эксперты.
Констан также раскритиковал исследование DeepMind за использование “пузырев фильтров” и “эхо комнат” в качестве имитаций машинного обучения, вместо того, чтобы применить их как интерактивные системы с участием людей. По его словам, общественность должна настораживать работа, которая ограничивается симуляционными исследованиями. По словам экспертов, люди намного сложнее машин. С одной стороны, они ценят разнообразие, но с другой стороны, если слишком расширить рекомендации, можно полностью потерять клиентов.