Подтвердить что ты не робот

С использованием предварительно вычисленных ядер с libsvm

В настоящее время я работаю над классификацией изображений с разными дескрипторами изображений. Поскольку у них есть свои собственные показатели, я использую предварительно вычислимые ядра. Поэтому, учитывая эти NxN ядра-матрицы (всего N изображений), я хочу обучать и тестировать SVM. Однако я не очень опытен с помощью SVM.

Что меня смущает, так это то, как вводить ввод для обучения. Используя подмножество ядра MxM (M - количество обучающих образов), обучает SVM с помощью M-функций. Однако, если я правильно понял, это ограничивает меня использованием тестовых данных с аналогичным количеством функций. Попытка использовать подъядер размером MxN вызывает бесконечные циклы во время тренировки, следовательно, использование большего количества функций при тестировании дает плохие результаты.

Это приводит к использованию тренировок равных размеров и наборов тестов, дающих разумные результаты. Но если бы я хотел только классифицировать, произносить одно изображение или тренироваться с заданным количеством изображений для каждого класса и тестировать с остальными, это не работает вообще.

Как я могу удалить зависимость между количеством обучающих образов и функций, поэтому я могу тестировать любое количество изображений?

Я использую libsvm для MATLAB, ядра - это матрицы расстояний между [0,1].

4b9b3361

Ответ 1

Вы, похоже, уже выяснили проблему... Согласно файлу README, включенному в пакет MATLAB:

Чтобы использовать предварительно вычислимое ядро, вы должны указать серийный номер образца как первый столбец данных обучения и тестирования.

Позвольте мне проиллюстрировать пример:

%# read dataset
[dataClass, data] = libsvmread('./heart_scale');

%# split into train/test datasets
trainData = data(1:150,:);
testData = data(151:270,:);
trainClass = dataClass(1:150,:);
testClass = dataClass(151:270,:);
numTrain = size(trainData,1);
numTest = size(testData,1);

%# radial basis function: exp(-gamma*|u-v|^2)
sigma = 2e-3;
rbfKernel = @(X,Y) exp(-sigma .* pdist2(X,Y,'euclidean').^2);

%# compute kernel matrices between every pairs of (train,train) and
%# (test,train) instances and include sample serial number as first column
K =  [ (1:numTrain)' , rbfKernel(trainData,trainData) ];
KK = [ (1:numTest)'  , rbfKernel(testData,trainData)  ];

%# train and test
model = svmtrain(trainClass, K, '-t 4');
[predClass, acc, decVals] = svmpredict(testClass, KK, model);

%# confusion matrix
C = confusionmat(testClass,predClass)

Выход:

*
optimization finished, #iter = 70
nu = 0.933333
obj = -117.027620, rho = 0.183062
nSV = 140, nBSV = 140
Total nSV = 140
Accuracy = 85.8333% (103/120) (classification)

C =
    65     5
    12    38