Tag: 机器学习

『用随机森林探测shadowsocks流量』论文解读

No Picture

  有人也在IEEE上放出The Random Forest Based Detection of Shadowsock’s Traffic 这篇论文来公布下他们用随机森林算法探测shadowsocks的研究成果,这里我们来探讨下。论文在网上已经很容易下到了,我就不贴下载链接。

Read More »

最小二乘法的极大似然解释

No Picture

  最开始学习机器学习的时候,首先遇到的就是回归算法,回归算法里最最重要的就是最小二乘法,为什么损失函数要用平方和,而且还得是最小?仔细想想最小二乘法视乎很合理,但是合理在哪,怎么用数学方法来证明它合理。

Read More »

使用反向传播算法(back propagation)训练多层神经网络

No Picture

  本文翻译自http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html,大概介绍下反向传播的基本原理。

Read More »

Stanford 机器学习练习 Part 3 Neural Networks: Representation

No Picture

   从神经网络开始,感觉自己慢慢跟不上课程的节奏了,一些代码好多参考了别人的代码,而且,让我现在单独写也不一定写的出来了。学习就是一件慢慢积累的过程,两年前我学算法的时候,好多算法都完全看不懂,但后来,看的多了,做的多了,有一天就茅塞顿开。所有的困难都是一时的,只要坚持下去,一切问题都会解决的。没忍住发了点鸡汤文。     关于神经网络,我表示现在的理解就是每一层都每个神经元都是依靠logistics regression得出的,所以必须先要掌握logistics regression。关于如何训练这个模型的算法(比如 反向传播算法),我也在这周的课程中慢慢学。其中涉及到好多数据处理的技巧,这些都是得通过练习才能学会的。     下面是我参考别人代码写的第四周神经网络的编程练习,仅作为参考。 关于lrCostFunction,我直接用了上周练习中CostFunction的代码,没想到竟然也可以通过。 lrCostFunction.m function [J, grad] = lrCostFunction(theta, X, y, lambda) %LRCOSTFUNCTION Compute cost and gradient for logistic regression with %regularization…

Read More »

Stanford 机器学习练习 Part 1 Linear Regression

No Picture

warmUpExercise.m function A = warmUpExercise() %WARMUPEXERCISE Example function in octave % A = WARMUPEXERCISE() is an example function that returns the 5×5 identity matrix A = []; % ============= YOUR CODE HERE ============== % Instructions: Return…

Read More »