Подтвердить что ты не робот

Какой тип ортогональных полиномов использует R?

Я пытался сопоставить ортогональные полиномы в следующем коде в R:

X <- cbind(1, poly(x = x, degree = 9))

но в python.

Для этого я применил свой собственный метод для предоставления ортогональных многочленов:

def get_hermite_poly(x,degree):
    #scipy.special.hermite()
    N, = x.shape
    ##
    X = np.zeros( (N,degree+1) )
    for n in range(N):
        for deg in range(degree+1):
            X[n,deg] = hermite( n=deg, z=float(x[deg]) )
    return X

хотя он, похоже, не соответствует этому. Кто-нибудь знает тип ортогонального полинома, который он использует? Я попробовал поиск в документации, но не сказал.


Чтобы дать некоторый контекст, я пытаюсь реализовать следующий код R в python (https://stats.stackexchange.com/info/313265/issue-with-convergence-with-sgd-with-function-approximation-using-polynomial-lin/315185#comment602020_315185):

set.seed(1234)

N <- 10
x <- seq(from = 0, to = 1, length = N)
mu <- sin(2 * pi * x * 4)
y <- mu
plot(x,y)

X <- cbind(1, poly(x = x, degree = 9))
# X <- sapply(0:9, function(i) x^i)
w <- rnorm(10)

learning_rate <- function(t) .1 / t^(.6)

n_samp <- 2
for(t in 1:100000) {
  mu_hat <- X %*% w
  idx <- sample(1:N, n_samp)
  X_batch <- X[idx,]
  y_batch <- y[idx]
  score_vec <- t(X_batch) %*% (y_batch - X_batch %*% w)

  change <- score_vec * learning_rate(t)
  w <- w + change
}

plot(mu_hat, ylim = c(-1, 1))
lines(mu)
fit_exact <- predict(lm(y ~ X - 1))
lines(fit_exact, col = 'red')
abs(w - coef(lm(y ~ X - 1)))

поскольку он, кажется, единственный, который работает с градиентным спусками с линейной регрессией с полиномиальными функциями.

Я считаю, что любой ортогональный многочлен (или, по крайней мере, ортонормированный) должен работать и давать hessian с условием номер 1, но я не могу заставить его работать на python. Связанный с этим вопрос: Как использовать полиномы Эрмита со стохастическим градиентным спуском (SGD)?

4b9b3361

Ответ 1

poly использует QR-факторизацию, как описано более подробно в этом ответе.

Я думаю, что то, что вы действительно ищете, - это то, как реплицировать вывод R poly с помощью python.

Здесь я написал функцию, чтобы сделать это на основе реализации R. Я также добавил некоторые комментарии, чтобы вы могли видеть, как выглядят эквивалентные утверждения в R:

import numpy as np

def poly(x, degree):
    xbar = np.mean(x)
    x = x - xbar

    # R: outer(x, 0L:degree, "^")
    X = x[:, None] ** np.arange(0, degree+1)

    #R: qr(X)$qr
    q, r = np.linalg.qr(X)

    #R: r * (row(r) == col(r))
    z = np.diag((np.diagonal(r)))  

    # R: Z = qr.qy(QR, z)
    Zq, Zr = np.linalg.qr(q)
    Z = np.matmul(Zq, z)

    # R: colSums(Z^2)
    norm1 = (Z**2).sum(0)

    #R: (colSums(x * Z^2)/norm2 + xbar)[1L:degree]
    alpha = ((x[:, None] * (Z**2)).sum(0) / norm1 +xbar)[0:degree]

    # R: c(1, norm2)
    norm2 = np.append(1, norm1)

    # R: Z/rep(sqrt(norm1), each = length(x))
    Z = Z / np.reshape(np.repeat(norm1**(1/2.0), repeats = x.size), (-1, x.size), order='F')

    #R: Z[, -1]
    Z = np.delete(Z, 0, axis=1)
    return [Z, alpha, norm2];

Проверка того, что это работает:

x = np.arange(10) + 1
degree = 9
poly(x, degree)

Первая строка возвращаемой матрицы

[-0.49543369,  0.52223297, -0.45342519,  0.33658092, -0.21483446,
  0.11677484, -0.05269379,  0.01869894, -0.00453516],

по сравнению с той же самой операцией в R

poly(1:10, 9)
# [1] -0.495433694  0.522232968 -0.453425193  0.336580916 -0.214834462
# [6]  0.116774842 -0.052693786  0.018698940 -0.004535159