我目前正在阅读Nello Cristianini撰写的“支持向量机和其他基于内核的方法的简介”一书,而我无法将线性学习机的双重表示概念笼罩在脑中,他在第2章中对此进行了讨论,以后还将在在第3.2节“隐式映射到特征空间”的第3章中,我不知道这种双重表示是一个通用概念还是它是本书的特定命名约定。因此,如果有人已经读过这本书,则我特别引用它。如果这是一个通用概念,那么如果有人能阐明线性学习机的双重表示形式以及这种双重表示形式的优点是什么,我将不胜感激。

我希望这不是一个太模糊的问题,但是不幸的是,我没有这些概念的背景或理解,无法进一步阐述我的查询。

任何帮助将不胜感激。

最佳答案

这是一个笼统的概念,并非特定于本书。

双重问题的主要好处是数据点仅出现在点积内。通常在内核矩阵中表示每对数据点的点积。如果使用不同类型的内核,则会得到不同类型的分类器(点:线性,rbf,:rbf网络等)。这被称为内核技巧(或就像您正在阅读的书一样,将其隐式映射为特征空间),这是过去十年机器学习中最重要的突破之一。

但是,并非所有事物都可以是内核。核矩阵必须是正半定的。维基百科的kernel trick上有一篇很棒的文章。此外,不仅可以对L2正则化二进制分类器(SVM)进行内核化,还有内核感知器,内核PCA,所有内核。

关于mapping - 有关与内核功能和支持向量机有关的术语的特定查询,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/11784903/

10-12 21:37