Все методы, рассмотренные в предыдущих лекциях, относятся к числу линейных, т.е. объекты предполагаются размещенными в евклидовом пространстве, а направления задаются линейными комбинациями исходных признаков. Однако во многих биологических задачах, даже если каждый объект и задается своими значениями в пространстве признаков, различия между ними не обязаны быть евклидовыми расстояниями, а направления – линейными. Кроме того, нелинейной может быть и регрессия как функция зависимой переменной от нескольких независимых. В качестве варианта нелинейной регрессии можно рассматривать нейронные сети.
Пусть так же, как и в задаче множественной регрессии, матрица X разбита на две группы признаков – внутренних Y и внешних Z. Цель анализа та же – научиться предсказывать характеристики объектов (значения внутренних признаков) по значениям внешних факторов. Однако, в отличие от предыдущей задачи, о содержательной интерпретации полученных результатов речь вообще не идет. Конечным итогом анализа является обученная нейронная сеть, которая по значениям внешних факторов для новых объектов, которые не участвовали в обучении, каким-то загадочным (для внешнего наблюдателя) образом вычисляет значения внутренних признаков. Точность предсказания может быть оценена только опытным путем.