Подтвердить что ты не робот

DBSCAN для кластеризации данных географического местоположения

У меня есть dataframe с парами широты и долготы.

Вот мой файл данных.

    order_lat  order_long
0   19.111841   72.910729
1   19.111342   72.908387
2   19.111342   72.908387
3   19.137815   72.914085
4   19.119677   72.905081
5   19.119677   72.905081
6   19.119677   72.905081
7   19.120217   72.907121
8   19.120217   72.907121
9   19.119677   72.905081
10  19.119677   72.905081
11  19.119677   72.905081
12  19.111860   72.911346
13  19.111860   72.911346
14  19.119677   72.905081
15  19.119677   72.905081
16  19.119677   72.905081
17  19.137815   72.914085
18  19.115380   72.909144
19  19.115380   72.909144
20  19.116168   72.909573
21  19.119677   72.905081
22  19.137815   72.914085
23  19.137815   72.914085
24  19.112955   72.910102
25  19.112955   72.910102
26  19.112955   72.910102
27  19.119677   72.905081
28  19.119677   72.905081
29  19.115380   72.909144
30  19.119677   72.905081
31  19.119677   72.905081
32  19.119677   72.905081
33  19.119677   72.905081
34  19.119677   72.905081
35  19.111860   72.911346
36  19.111841   72.910729
37  19.131674   72.918510
38  19.119677   72.905081
39  19.111860   72.911346
40  19.111860   72.911346
41  19.111841   72.910729
42  19.111841   72.910729
43  19.111841   72.910729
44  19.115380   72.909144
45  19.116625   72.909185
46  19.115671   72.908985
47  19.119677   72.905081
48  19.119677   72.905081
49  19.119677   72.905081
50  19.116183   72.909646
51  19.113827   72.893833
52  19.119677   72.905081
53  19.114100   72.894985
54  19.107491   72.901760
55  19.119677   72.905081

Я хочу сгруппировать эти точки, которые находятся ближе всего друг к другу (расстояние 200 метров), это моя матрица расстояний.

from scipy.spatial.distance import pdist, squareform
distance_matrix = squareform(pdist(X, (lambda u,v: haversine(u,v))))

array([[ 0.        ,  0.2522482 ,  0.2522482 , ...,  1.67313071,
     1.05925366,  1.05420922],
   [ 0.2522482 ,  0.        ,  0.        , ...,  1.44111548,
     0.81742536,  0.98978355],
   [ 0.2522482 ,  0.        ,  0.        , ...,  1.44111548,
     0.81742536,  0.98978355],
   ..., 
   [ 1.67313071,  1.44111548,  1.44111548, ...,  0.        ,
     1.02310118,  1.22871515],
   [ 1.05925366,  0.81742536,  0.81742536, ...,  1.02310118,
     0.        ,  1.39923529],
   [ 1.05420922,  0.98978355,  0.98978355, ...,  1.22871515,
     1.39923529,  0.        ]])

Затем я применяю алгоритм кластеризации DBSCAN на матрице расстояний.

 from sklearn.cluster import DBSCAN

 db = DBSCAN(eps=2,min_samples=5)
 y_db = db.fit_predict(distance_matrix)

Я не знаю, как выбрать значение eps и min_samples. Он группирует точки, которые слишком далеко, в одном кластере (примерно на расстоянии 2 км). Это потому, что он вычисляет эвклидовое расстояние при кластеризации? пожалуйста, помогите.

4b9b3361

Ответ 1

DBSCAN предназначен для использования на необработанных данных с пространственным индексом для ускорения. Единственный инструмент, который я знаю с ускорением для географических расстояний, ELKI (Java) - scikit-learn, к сожалению, поддерживает это только на несколько расстояний, таких как евклидовы расстояние (см. sklearn.neighbors.NearestNeighbors). Но, судя по всему, вы можете притворяться, что они предкомпрометируют попарные расстояния, поэтому это еще не проблема.

Однако вы недостаточно внимательно изучили документацию, и ваше предположение о том, что DBSCAN использует матрицу расстояний, неверно:

from sklearn.cluster import DBSCAN
db = DBSCAN(eps=2,min_samples=5)
db.fit_predict(distance_matrix)

использует евклидово расстояние по строкам матрицы расстояний, что, очевидно, не имеет никакого смысла.

См. документацию DBSCAN (выделено мной):

class sklearn.cluster.DBSCAN(eps = 0.5, min_samples = 5, metric = 'евклидовой', algorithm = 'auto', leaf_size = 30, p = None, random_state = None)

метрика: строка или вызываемый

Метрика, используемая при расчете расстояния между экземплярами в массиве признаков. Если метрика является строкой или вызываемой, она должна быть одной из параметров, разрешенных метрикой .pairwise.calculate_distance для ее метрического параметра. Если метрика "предварительно вычислена", предполагается, что X является матрицей расстояний и должна быть квадратной. X может быть разреженной матрицей, и в этом случае только "ненулевые" элементы могут считаться соседями для DBSCAN.

похож на fit_predict:

X: массив или разреженная (CSR) матрица формы (n_samples, n_features) или массив формы (n_samples, n_samples)

массив признаков или массив расстояний между образцами , если metric = 'precomputed'.

Другими словами, вам нужно сделать

db = DBSCAN(eps=2, min_samples=5, metric="precomputed")

Ответ 2

Вы можете группировать данные пространственной широты и долготы с помощью scikit-learn DBSCAN без предварительного вычисления матрицы расстояния.

db = DBSCAN(eps=2/6371., min_samples=5, algorithm='ball_tree', metric='haversine').fit(np.radians(coordinates))

Это из этого урока на кластеризации пространственных данных с помощью sciskit-learn DBSCAN. В частности, обратите внимание, что значение eps равно 2 км, но оно делится на 6371, чтобы преобразовать его в радианы. Также заметим, что .fit() принимает координаты в единицах радиан для метрики хаверзина.

Ответ 3

Я не знаю, какую реализацию haversine вы используете, но похоже, что он возвращает результаты в км, поэтому eps должно быть 0,2, а не 2 на 200 м.

Для параметра min_samples это зависит от ожидаемого результата. Вот несколько примеров. Мои выходы используют реализацию haversine на основе этого ответа, которая дает матрицу расстояний, аналогичную, но не идентичную вашей.

Это с db = DBSCAN(eps=0.2, min_samples=5)

[0 -1 -1 -1 1 1 1 -1 -1 1 1 1 2 2 1 1 1 -1 -1 -1 -1 1 -1 -1 -1 -1 -1 1 1 -1 1 1 1 1 1 2 0 -1 1 2 2 0 0 0 -1 -1 -1 1 1 1 -1 -1 1 -1 -1 1]

Это создает три кластера 0, 1 и 2, и многие образцы не попадают в кластер с не менее чем 5 членами и поэтому не назначаются кластеру (отображается как -1).

Повторное повторение с меньшим значением min_samples:

db = DBSCAN(eps=0.2, min_samples=2)

[0 1 1 2 3 3 3 4 4 3 3 3 5 5 3 3 3 2 6 6 7 3 2 2 8   8 8 3 3 6 3 3 3 3 3 5 0 -1 3 5 5 0 0 0 6 -1 -1 3 3 3   7 -1 3 -1 -1 3]

Здесь большинство образцов находятся в пределах 200 м по меньшей мере от одного другого образца и поэтому попадают в один из восьми кластеров 0 до 7.

Отредактировано для добавления

Похоже, что @Anony-Mousse прав, хотя я не видел ничего плохого в моих результатах. Чтобы внести что-то, здесь код, который я использовал, чтобы увидеть кластеры:

from math import radians, cos, sin, asin, sqrt

from scipy.spatial.distance import pdist, squareform
from sklearn.cluster import DBSCAN

import matplotlib.pyplot as plt
import pandas as pd


def haversine(lonlat1, lonlat2):
    """
    Calculate the great circle distance between two points 
    on the earth (specified in decimal degrees)
    """
    # convert decimal degrees to radians 
    lat1, lon1 = lonlat1
    lat2, lon2 = lonlat2
    lon1, lat1, lon2, lat2 = map(radians, [lon1, lat1, lon2, lat2])

    # haversine formula 
    dlon = lon2 - lon1 
    dlat = lat2 - lat1 
    a = sin(dlat/2)**2 + cos(lat1) * cos(lat2) * sin(dlon/2)**2
    c = 2 * asin(sqrt(a)) 
    r = 6371 # Radius of earth in kilometers. Use 3956 for miles
    return c * r


X = pd.read_csv('dbscan_test.csv')
distance_matrix = squareform(pdist(X, (lambda u,v: haversine(u,v))))

db = DBSCAN(eps=0.2, min_samples=2, metric='precomputed')  # using "precomputed" as recommended by @Anony-Mousse
y_db = db.fit_predict(distance_matrix)

X['cluster'] = y_db

plt.scatter(X['lat'], X['lng'], c=X['cluster'])
plt.show()

Ответ 4

@eos Дает лучший ответ, который я считаю, - а также использование расстояния Хаверсайна (наиболее релевантной меры расстояния в данном случае) позволяет избежать необходимости создавать предварительно вычисленную матрицу расстояний. Если вы создаете матрицу расстояний, вам необходимо рассчитать попарные расстояния для каждой комбинации точек (хотя вы, очевидно, можете сэкономить немного времени, воспользовавшись тем, что ваша метрика расстояния является симметричной).

Если вы просто дадите DBSCAN меру расстояния и будете использовать алгоритм ball_tree, это позволит избежать необходимости расчета каждого возможного расстояния. Это связано с тем, что алгоритм шарового дерева может использовать теорему о треangularьном неравенстве, чтобы уменьшить количество кандидатов, которые необходимо проверить, чтобы найти ближайших соседей точки данных (это самая большая задача в DBSCAN).

Теорема о треangularьном неравенстве гласит:

|x+y| <= |x| + |y|

... поэтому, если точка p находится на расстоянии x от соседа n, а другая точка q - это расстояние y от p, если x+y больше нашей радиус ближайшего соседа, мы знаем, что q должен быть слишком далеко от n, чтобы считаться соседом, поэтому нам не нужно вычислять его расстояние.

Подробнее о работе шаровых деревьев читайте в документации scikit-learn.