Все это время (особенно в конкурсе Netflix), я всегда сталкивался с этим блогом (или форумом лидеров), где они упоминают, как, применяя простой шаг SVD на данных, помогли им сократить разреженность данных или вообще улучшили производительность их алгоритм в руке. Я пытаюсь думать (с давних времен), но я не могу угадать, почему это так. В общем, данные в руке, которые я получаю, очень шумные (что также является забавной частью bigdata), а затем я знаю некоторые базовые функции масштабирования, такие как материал преобразования журнала, средняя нормализация. Но как помогает SVD. Итак, скажем, у меня есть огромная матрица фильмов с рейтингом пользователей... и затем в этой матрице я реализую некоторую версию системы рекомендаций (например, совместную фильтрацию):
1) Without SVD
2) With SVD
как это помогает Благодаря