У меня есть два вектора данных, и я поместил их в matplotlib.scatter()
. Теперь я бы предпочел бы построить линейную привязку к этим данным. Как мне это сделать? Я пробовал использовать scikitlearn
и np.scatter
.
Как переписать строку на диаграмме рассеяния в python?
Ответ 1
import numpy as np
import matplotlib.pyplot as plt
# sample data
x = np.arange(10)
y = 5*x + 10
# fit with np.polyfit
m, b = np.polyfit(x, y, 1)
plt.plot(x, y, '.')
plt.plot(x, m*x + b, '-')
Ответ 2
Я частично отношусь к scikits.statsmodels. Вот пример:
import statsmodels.api as sm
import numpy as np
import matplotlib.pyplot as plt
X = np.random.rand(100)
Y = X + np.random.rand(100)*0.1
results = sm.OLS(Y,sm.add_constant(X)).fit()
print results.summary()
plt.scatter(X,Y)
X_plot = np.linspace(0,1,100)
plt.plot(X_plot, X_plot*results.params[0] + results.params[1])
plt.show()
Единственная сложная часть - это sm.add_constant(X)
, которая добавляет столбцы единиц в X
, чтобы получить член перехвата.
Summary of Regression Results
=======================================
| Dependent Variable: ['y']|
| Model: OLS|
| Method: Least Squares|
| Date: Sat, 28 Sep 2013|
| Time: 09:22:59|
| # obs: 100.0|
| Df residuals: 98.0|
| Df model: 1.0|
==============================================================================
| coefficient std. error t-statistic prob. |
------------------------------------------------------------------------------
| x1 1.007 0.008466 118.9032 0.0000 |
| const 0.05165 0.005138 10.0515 0.0000 |
==============================================================================
| Models stats Residual stats |
------------------------------------------------------------------------------
| R-squared: 0.9931 Durbin-Watson: 1.484 |
| Adjusted R-squared: 0.9930 Omnibus: 12.16 |
| F-statistic: 1.414e+04 Prob(Omnibus): 0.002294 |
| Prob (F-statistic): 9.137e-108 JB: 0.6818 |
| Log likelihood: 223.8 Prob(JB): 0.7111 |
| AIC criterion: -443.7 Skew: -0.2064 |
| BIC criterion: -438.5 Kurtosis: 2.048 |
------------------------------------------------------------------------------
Ответ 3
Ответ 4
Другой способ сделать это, используя axes.get_xlim()
:
import matplotlib.pyplot as plt
import numpy as np
def scatter_plot_with_correlation_line(x, y, graph_filepath):
'''
http://stackoverflow.com/a/34571821/395857
x does not have to be ordered.
'''
# Scatter plot
plt.scatter(x, y)
# Add correlation line
axes = plt.gca()
m, b = np.polyfit(x, y, 1)
X_plot = np.linspace(axes.get_xlim()[0],axes.get_xlim()[1],100)
plt.plot(X_plot, m*X_plot + b, '-')
# Save figure
plt.savefig(graph_filepath, dpi=300, format='png', bbox_inches='tight')
def main():
# Data
x = np.random.rand(100)
y = x + np.random.rand(100)*0.1
# Plot
scatter_plot_with_correlation_line(x, y, 'scatter_plot.png')
if __name__ == "__main__":
main()
#cProfile.run('main()') # if you want to do some profiling
Ответ 5
Однострочный вариант этот отличный ответ, чтобы построить линию наилучшего соответствия:
plt.plot(np.unique(x), np.poly1d(np.polyfit(x, y, 1))(np.unique(x)))
Использование np.unique(x)
вместо x
обрабатывает случай, когда x
не сортируется или имеет повторяющиеся значения.
Вызов poly1d
является альтернативой написанию m*x + b
, как в этом другом отличном ответе.
Ответ 6
plt.plot(X_plot, X_plot*results.params[0] + results.params[1])
против
plt.plot(X_plot, X_plot*results.params[1] + results.params[0])