Подтвердить что ты не робот

Установка распределения Вейбулла с использованием Scipy

Я пытаюсь воссоздать фикцию максимального правдоподобия, я уже могу это сделать в Matlab и R, но теперь я хочу использовать scipy. В частности, я хотел бы оценить параметры распределения Вейбулла для моего набора данных.

Я пробовал это:

import scipy.stats as s
import numpy as np
import matplotlib.pyplot as plt

def weib(x,n,a):
    return (a / n) * (x / n)**(a - 1) * np.exp(-(x / n)**a)

data = np.loadtxt("stack_data.csv")

(loc, scale) = s.exponweib.fit_loc_scale(data, 1, 1)
print loc, scale

x = np.linspace(data.min(), data.max(), 1000)
plt.plot(x, weib(x, loc, scale))
plt.hist(data, data.max(), normed=True)
plt.show()

И получите следующее:

(2.5827280639441961, 3.4955032285727947)

И распределение, которое выглядит так:

Weibull distribution using Scipy

Я использовал exponweib после прочтения этого http://www.johndcook.com/distributions_scipy.html. Я также пробовал другие функции Вейбулла в scipy (на всякий случай!).

В Matlab (с использованием инструмента распределения по расписанию - см. снимок экрана) и в R (с использованием как библиотечной функции MASS fitdistr, так и пакета GAMLSS) я получаю параметры (loc) и b (scale), похожие на 1.58463497 5.93030013. Я считаю, что все три метода используют метод максимального правдоподобия для установки распределения.

Weibull distribution using Matlab

Я разместил свои данные здесь, если вы хотите, чтобы вы пошли! И для полноты я использую Python 2.7.5, Scipy 0.12.0, R 2.15.2 и Matlab 2012b.

Почему я получаю другой результат?

4b9b3361

Ответ 1

Моя догадка заключается в том, что вы хотите оценить параметр формы и масштаб распределения Вейбулла, сохраняя фиксированное местоположение. Фиксирование loc предполагает, что значения ваших данных и распределения положительны с нижней границей в нуле.

floc=0 сохраняет фиксированное значение в нуле, f0=1 сохраняет первый параметр формы экспоненциального weibull, зафиксированный на одном.

>>> stats.exponweib.fit(data, floc=0, f0=1)
[1, 1.8553346917584836, 0, 6.8820748596850905]
>>> stats.weibull_min.fit(data, floc=0)
[1.8553346917584836, 0, 6.8820748596850549]

Пригодность по сравнению с гистограммой выглядит нормально, но не очень хорошая. Оценки параметров немного выше, чем те, которые вы упоминаете, из R и matlab.

Обновление

Ближайший я могу добраться до сюжета, который теперь доступен, с неограниченной посадкой, но с использованием начальных значений. Сюжет еще меньше. В качестве начальных значений используются значения значений, которые не имеют f спереди.

>>> from scipy import stats
>>> import matplotlib.pyplot as plt
>>> plt.plot(data, stats.exponweib.pdf(data, *stats.exponweib.fit(data, 1, 1, scale=02, loc=0)))
>>> _ = plt.hist(data, bins=np.linspace(0, 16, 33), normed=True, alpha=0.5);
>>> plt.show()

exponweib fit

Ответ 2

Легко проверить, какой результат является истинным MLE, просто нужна простая функция для вычисления логарифмического правдоподобия:

>>> def wb2LL(p, x): #log-likelihood
    return sum(log(stats.weibull_min.pdf(x, p[1], 0., p[0])))
>>> adata=loadtxt('/home/user/stack_data.csv')
>>> wb2LL(array([6.8820748596850905, 1.8553346917584836]), adata)
-8290.1227946678173
>>> wb2LL(array([5.93030013, 1.57463497]), adata)
-8410.3327470347667

Результат от fit метода exponweib и R fitdistr (@Warren) лучше и имеет более высокий логарифмический правдоподобия. Скорее всего, это настоящий MLE. Неудивительно, что результат GAMLSS отличается. Это совершенно другая статистическая модель: обобщенная аддитивная модель.

Все еще не убежден? Мы можем нарисовать двумерный график доверительных ограничений вокруг MLE, подробнее см. Книгу Meeker и Escobar). Multi-dimensional Confidence Region

Опять же, это подтверждает, что array([6.8820748596850905, 1.8553346917584836]) - правильный ответ, поскольку логарифмичность ниже, чем любая другая точка в пространстве параметров. Примечание:

>>> log(array([6.8820748596850905, 1.8553346917584836]))
array([ 1.92892018,  0.61806511])

BTW1, MLE подходит, возможно, не соответствует гистограмме распределения. Легкий способ думать о MLE заключается в том, что MLE - это оценка параметров, наиболее вероятная с учетом наблюдаемых данных. Он не нуждается в визуальной подгонке гистограммы, это будет чем-то, сводящим к минимуму среднеквадратичную ошибку.

BTW2, ваши данные выглядят лептокуртическими и левыми, что означает, что распределение Weibull может не соответствовать вашим данным. Попробуйте, например. Gompertz-Logistic, что улучшает лог-правдоподобие еще на 100. enter image description hereenter image description here Ура!

Ответ 3

Мне был интересен ваш вопрос, и, несмотря на это, это не ответ, он сравнивает результат Matlab с вашим результатом и результатом с использованием leastsq, который показал наилучшую корреляцию с данными:

enter image description here

Код выглядит следующим образом:

import scipy.stats as s
import numpy as np
import matplotlib.pyplot as plt
import numpy.random as mtrand
from scipy.integrate import quad
from scipy.optimize import leastsq

## my distribution (Inverse Normal with shape parameter mu=1.0)
def weib(x,n,a):
    return (a / n) * (x / n)**(a-1) * np.exp(-(x/n)**a)

def residuals(p,x,y):
    integral = quad( weib, 0, 16, args=(p[0],p[1]) )[0]
    penalization = abs(1.-integral)*100000
    return y - weib(x, p[0],p[1]) + penalization

#
data = np.loadtxt("stack_data.csv")


x = np.linspace(data.min(), data.max(), 100)
n, bins, patches = plt.hist(data,bins=x, normed=True)
binsm = (bins[1:]+bins[:-1])/2

popt, pcov = leastsq(func=residuals, x0=(1.,1.), args=(binsm,n))

loc, scale = 1.58463497, 5.93030013
plt.plot(binsm,n)
plt.plot(x, weib(x, loc, scale),
         label='weib matlab, loc=%1.3f, scale=%1.3f' % (loc, scale), lw=4.)
loc, scale = s.exponweib.fit_loc_scale(data, 1, 1)
plt.plot(x, weib(x, loc, scale),
         label='weib stack, loc=%1.3f, scale=%1.3f' % (loc, scale), lw=4.)
plt.plot(x, weib(x,*popt),
         label='weib leastsq, loc=%1.3f, scale=%1.3f' % tuple(popt), lw=4.)

plt.legend(loc='upper right')
plt.show()

Ответ 4

Я знаю, что это старый пост, но я столкнулся с подобной проблемой, и этот поток помог мне решить эту проблему. Думал, что мое решение может быть полезно для других, таких как я:

# Fit Weibull function, some explanation below
params = stats.exponweib.fit(data, floc=0, f0=1)
shape = params[1]
scale = params[3]
print 'shape:',shape
print 'scale:',scale

#### Plotting
# Histogram first
values,bins,hist = plt.hist(data,bins=51,range=(0,25),normed=True)
center = (bins[:-1] + bins[1:]) / 2.

# Using all params and the stats function
plt.plot(center,stats.exponweib.pdf(center,*params),lw=4,label='scipy')

# Using my own Weibull function as a check
def weibull(u,shape,scale):
    '''Weibull distribution for wind speed u with shape parameter k and scale parameter A'''
    return (shape / scale) * (u / scale)**(shape-1) * np.exp(-(u/scale)**shape)

plt.plot(center,weibull(center,shape,scale),label='Wind analysis',lw=2)
plt.legend()

Дополнительная информация, которая помогла мне понять:

Функция Scipy Weibull может принимать четыре входных параметра: (a, c), loc и scale. Вы хотите исправить loc и первый параметр формы (a), это делается с floc = 0, f0 = 1. Затем фитинг даст вам параметры c и масштаб, где c соответствует параметру формы двухпараметрического распределения Вейбулла (часто используется при анализе данных ветра), а масштаб соответствует его масштабному коэффициенту.

Из документов:

exponweib.pdf(x, a, c) =
    a * c * (1-exp(-x**c))**(a-1) * exp(-x**c)*x**(c-1)

Если a равно 1, то

exponweib.pdf(x, a, c) =
    c * (1-exp(-x**c))**(0) * exp(-x**c)*x**(c-1)
  = c * (1) * exp(-x**c)*x**(c-1)
  = c * x **(c-1) * exp(-x**c)

Отсюда следует, что отношение к функции Вейбулла "анализ ветра" должно быть более ясным.

Ответ 5

У меня была та же проблема, но обнаружил, что установка loc=0 в exponweib.fit загрузила насос для оптимизации. Это все, что нужно от @user333700 answer. Я не мог загрузить ваши данные - ваша ссылка указывает на изображение, а не на данные. Поэтому я выполнил тест по своим данным:

Plot of distribution fit to problematic (bimodal?) data

import scipy.stats as ss
import matplotlib.pyplot as plt
import numpy as np

N=30
counts, bins = np.histogram(x, bins=N)
bin_width = bins[1]-bins[0]
total_count = float(sum(counts))

f, ax = plt.subplots(1, 1)
f.suptitle(query_uri)

ax.bar(bins[:-1]+bin_width/2., counts, align='center', width=.85*bin_width)
ax.grid('on')
def fit_pdf(x, name='lognorm', color='r'):
    dist = getattr(ss, name)  # params = shape, loc, scale
    # dist = ss.gamma  # 3 params

    params = dist.fit(x, loc=0)  # 1-day lag minimum for shipping
    y = dist.pdf(bins, *params)*total_count*bin_width
    sqerror_sum = np.log(sum(ci*(yi - ci)**2. for (ci, yi) in zip(counts, y)))
    ax.plot(bins, y, color, lw=3, alpha=0.6, label='%s   err=%3.2f' % (name, sqerror_sum))
    return y

colors = ['r-', 'g-', 'r:', 'g:']

for name, color in zip(['exponweib', 't', 'gamma'], colors): # 'lognorm', 'erlang', 'chi2', 'weibull_min', 
    y = fit_pdf(x, name=name, color=color)

ax.legend(loc='best', frameon=False)
plt.show()

Ответ 6

Несколько ответов на это уже здесь и в других местах. likt в Распределение Weibull и данные на том же рисунке (с numpy и scipy)

Мне потребовалось некоторое время, чтобы придумать пример чистой игрушки, поэтому, хотя было бы полезно отправить сообщение.

from scipy import stats
import matplotlib.pyplot as plt

#input for pseudo data
N = 10000
Kappa_in = 1.8
Lambda_in = 10
a_in = 1
loc_in = 0 

#Generate data from given input
data = stats.exponweib.rvs(a=a_in,c=Kappa_in, loc=loc_in, scale=Lambda_in, size = N)

#The a and loc are fixed in the fit since it is standard to assume they are known
a_out, Kappa_out, loc_out, Lambda_out = stats.exponweib.fit(data, f0=a_in,floc=loc_in)

#Plot
bins = range(51)
fig = plt.figure() 
ax = fig.add_subplot(1, 1, 1)
ax.plot(bins, stats.exponweib.pdf(bins, a=a_out,c=Kappa_out,loc=loc_out,scale = Lambda_out))
ax.hist(data, bins = bins , normed=True, alpha=0.5)
ax.annotate("Shape: $k = %.2f$ \n Scale: $\lambda = %.2f$"%(Kappa_out,Lambda_out), xy=(0.7, 0.85), xycoords=ax.transAxes)
plt.show()

Ответ 7

порядок слова и масштаб перепутаны в коде:

plt.plot(x, weib(x, scale, loc))

параметр масштаба должен быть первым.

Ответ 8

В функции fit есть 3 параметра:

  • Параметры формы: в этом случае, мы имеем два параметра формы, которые можно зафиксировать в соответствии с f0 и f1. (Попробуйте сами!). Обычно имя параметра обозначается как f% d, где d - номер формы.

  • Параметр местоположения: используйте floc, чтобы исправить это. Если вы не фиксируете floc, среднее из данных выводится как loc.

  • Параметр масштабирования: используйте fscale, чтобы исправить это.

Возврат любого соответствия выдается в этом порядке.

Следуя строкам @Peter9192, я нашел наилучшее соответствие для CDF Weibull из ~ 20-30 образцов данных, используя следующее: _,gamma,_alpha=scipy.stats.exponweib.fit(data,floc=0,f0=1)

Формула для CDF:

1-np.exp(-np.power(x/alpha,gamma)) Значения для данных, которые я оценил с использованием метода оценки K-M, соответствующего распределению Вейбулла, дали мне хорошие значения.

Чтобы зафиксировать a как 1, я не нашел loc = 0, scale = 1 как лучший метод, как вы можете отчетливо видеть в 4 возвращаемых значениях параметров. Во-вторых, использование гамма-альфа из нее не выдавало правильного значения Вейбулла.

Наконец, я подтвердил, какой метод лучше всего работает, вычисляя среднее значение распределения Вейбулла, используя: Mean=alpha*scipy.special.gamma(1+(1/gamma)) Значения, которые я получил, соответствуют моему приложению.

Здесь вы можете проверить формулы среднего и CDF для ссылки: https://en.m.wikipedia.org/wiki/Weibull_distribution