二分类
逻辑斯谛回归是一个用于二分类的算法。对于二分类,假如你有一张图片作为输入,如图所示,你想输出一个标签来识别这张图片,即如果是猫,则输出,反之则输出。在二分类问题中,目标是需要训练出一个分类器,将图片的特征向量作为输入,预测输出的结果标签是还是,也就是这张图片中是否有猫。
逻辑斯谛回归模型
对于逻辑斯谛回归,已知输入特征向量,假设是一张图片,你希望把它识别出这是不是一张猫的图片,则需要模型输出一个预测值,对进行预测,预测属于猫图的概率。逻辑斯谛回归模型的目的就是最小化预测值和真实值的误差。假设模型的参数,如何计算预测出呢?如果令:
这是一个输入的线性函数,对于二分类来说不太好,因为,所以我们可以利用sigmoid函数作用在这个量上,即:
事实上,sigmoid函数形式为参数化的逻辑斯谛分布(),而逻辑斯谛回归模型正是如下的条件概率分布(约定):
这里,是输入,是输出,和是参数,对于给定的输入实例,求得两个条件概率值的大小,将实例分到概率值较大的那一类。
逻辑斯谛回归损失函数
对于训练集,我们希望,其中:
当损失函数定义为误差平方函数时,会发现后面的优化问题会变成一个非凸优化问题,因此可以定义逻辑斯谛回归的损失函数为:
当时,,要想让误差最小,则接近1
当时,,要想让误差最小,则接近0
以上损失函数是对应于单个训练样本,对于整个训练集里面的个训练样本,定义代价函数:
损失函数的证明
对于模型输出:
由于约定,所以:
合并得到:
当训练模型时,参数影响着P的大小,我们希望这些参数使是最大的,因为这样的模型就越让。
其对数形式:
因此对求最大值等价于求的最大值
所以对于单个样本,可以将损失函数定义为:
对于整个训练集,所有样本服从同一分布且相互独立,其联合概率为:
利用极大似然估计法估计模型参数:
似然函数为:
对数似然函数为:
对极大似然函数求极大值,即可得到的估计值使得
因此对于整个训练集,可以将代价函数定义为: