В настоящее время я читаю книгу машинного обучения Тома Митчелла. Говоря о нейронных сетях, Митчелл утверждает:
"Хотя правило персептрона находит успешный вектор веса, когда примеры обучения линейно отделимы, они не могут сходиться если примеры не являются линейно разделяемыми."
У меня возникают проблемы с пониманием того, что он означает "линейно разделяемым"? Википедия говорит мне, что "два набора точек в двумерном пространстве линейно разделяются, если они могут быть полностью разделены одной строкой".
Но как это относится к набору тренировок для нейронных сетей? Как входы (или блоки действия) могут быть линейно разделены или нет?
Я не лучший в геометрии и математике - может ли кто-нибудь объяснить это мне, как будто мне было 5?;) Спасибо!