全文: 不吹不黑,当然史上遍布世界各地的机器自学用书!
责任编辑包涵了迄今我们普遍认可的最差讲义文本。它决不是网路上每一ML相关讲义的详细条目,而要经过穿鞘而成的,即便网路上的东西并不尽是好的。我译者汇整的最终目标是为了补足我将要出版发行的画册,为它找寻在机器自学和NLP应用领域中找出的最差讲义。
通过那些最差讲义的汇整,我可以加速的找出我想得到的讲义。进而防止了写作更广为覆盖面的书刊段落和困惑的研究学术论文,你或许晓得,当你的微积分功力不是较好的这时候那些学术论文你一般来说是拿不出的。为何不卖书呢?没有哪两个译者是两个全能型老先生。当你试著自学某一的主轴或想赢得相同的看法时,讲义可能将是十分有协助的。
我将这首诗分成五个部份:机器自学,NLP,Python和微积分。我在每一部份都包涵了一些主轴,但由于机器自学是两个比较复杂的学科专业,我不可能将包涵所有可能将的主轴。
如果有较好的讲义你晓得我错失了,请说我!我将继续健全这个自学讲义。我在挑选出那些镜像的这时候,都企图确保每一镜像应该具有与其他镜像相同的金属材料或以相同的方式呈现出重要信息(比如,标识符与PPT)或从相同的视角。
机器自学
从机器自学侧发力(
machinelearningmastery.com)机器自学很有意思!(medium.com/@ageitgey)
机器自学准则:ML工程建设的最差课堂教学(martin.zinkevich.org)
机器自学trained专业课程:第三部份,第三部份,第三部份(伯克利机器自学)
机器自学理论及其应用简介:用两个小例子进行视觉讲义(toptal.com)
机器自学的简单指南(monkeylearn.com)
我应该使用哪种机器自学算法?(sas.com)
机器自学入门(sas.com)
初学者机器自学讲义(kaggle.com/kanncaa1)
激活函数和Dropout函数
Sigmoid神经元(
neuralnetworksanddeeplearning.com)激活函数在神经网络中的作用是什么?(quora.com)
神经网络中常见的激活函数的优缺点比较条目(stats.stackexchange.com)
激活函数及其类型对比(medium.com)
理解对数损失(exegetic.biz)
损失函数(斯坦福CS231n)
L1与L2损失函数(rishy.github.io)
交叉熵成本函数(
neuralnetworksanddeeplearning.com)偏差(bias)
偏差在神经网络中的作用(stackoverflow.com)
神经网络中的偏差节点(
makeyourownneuralnetwork.blogspot.com)什么是人工神经网络的偏差?(quora.com)
感知器
感知器(
neuralnetworksanddeeplearning.com)感知器(natureofcode.com)
单层神经网络(感知器)(dcu.ie)
从Perceptrons到Deep Networks(toptal.com)
回归
线性回归分析介绍(duke.edu)
线性回归(ufldl.stanford.edu)
线性回归(readthedocs.io)
Logistic回归(readthedocs.io)
机器自学的简单线性回归讲义(
machinelearningmastery.com)机器自学的Logistic回归讲义(
machinelearningmastery.com)Softmax回归(ufldl.stanford.edu)
梯度下降
在梯度下降中自学(
neuralnetworksanddeeplearning.com)梯度下降(iamtrask.github.io)
如何理解梯度下降算法(kdnuggets.com)
梯度下降优化算法概述(sebastianruder.com)
优化:随机梯度下降(斯坦福CS231n)
生成自学(Generative Learning)
生成自学算法(斯坦福CS229)
朴素贝叶斯分类器的实用解释(monkeylearn.com)
支持向量机
支持向量机(SVM)简介(monkeylearn.com)
支持向量机(斯坦福CS229)
线性分类:支持向量机,Softmax(Stanford 231n)
反向传播
你应该了解的backprop(medium.com/@karpathy)
你能给出神经网络反向传播算法的直观解释吗?(github.com/rasbt)
反向传播算法的工作原理(
neuralnetworksanddeeplearning.com)通过时间反向传播和消失的渐变(wildml.com)
时间反向传播的简单介绍(
machinelearningmastery.com)反向传播,直觉(斯坦福CS231n)
深度自学
YN²深度自学指南(yerevann.com)
深度自学学术论文写作路线图(github.com/floodsung)
Nutshell中的深度自学(nikhilbuduma.com)
深度自学讲义(Quoc V.Le)
什么是深度自学?(
machinelearningmastery.com)人工智能,机器自学和深度自学之间有什么区别?(nvidia.com)
深度自学–简单介绍 (gluon.mxnet.io)
最优化和降维
数据降维减少的七种技术(knime.org)
主成分分析(斯坦福CS229)
Dropout:一种改善神经网络的简单方法(Hinton @ NIPS 2012)
如何训练你的深度神经网络?(rishy.github.io)
长短期记忆(LSTM)
长短期记忆网络的通俗介绍(
machinelearningmastery.com)了解LSTM 神经网络Networks(colah.github.io)
探索LSTM(echen.me)
任何人都可以自学用Python编写LSTM-RNN(iamtrask.github.io)
卷积神经网络(CNN)
卷积网络介绍(
neuralnetworksanddeeplearning.com)深度自学和卷积神经网络(medium.com/@ageitgey)
Conv Nets:模块化视角(colah.github.io)
了解卷积(colah.github.io)
递归神经网络(RNN)
递归神经网络讲义(wildml.com)
注意和增强的递归神经网络(distill.pub)
递归神经网络的不合理有效性(karpathy.github.io)
深入了解递归神经网络(nikhilbuduma.com)
强化自学
强化自学初学者入门及其实施指南(analyticsvidhya.com)
强化学习讲义(mst.edu)
自学强化自学(wildml.com)
深度强化自学:来自像素的乒乓球(karpathy.github.io)
生成对抗网络(GAN)
对抗机器自学简介(
aaai18adversarial.github.io)什么是生成性对抗网络?(nvidia.com)
滥用生成对抗网络制作8位像素艺术(medium.com/@ageitgey)
Generative Adversarial Networks简介(TensorFlow中的标识符)(aylien.com)
初学者的生成对抗网络(oreilly.com)
多任务自学
深度神经网络中多任务自学概述(sebastianruder.com)
NLP
自然语言处理很有意思!(medium.com/@ageitgey)
自然语言处理神经网络模型入门(Yoav Goldberg)
自然语言处理权威指南(monkeylearn.com)
自然语言处理简介(algorithmia.com)
自然语言处理讲义(vikparuchuri.com)
自然语言处理(NLP)来自Scratch(arxiv.org)
深度自学和NLP
深度自学适用于NLP(arxiv.org)
NLP的深度自学(没有魔法)(Richard Socher)
了解NLP的卷积神经网络(wildml.com)
深度自学、NLP、表示(colah.github.io)
最先进的NLP模型的新深度自学公式:嵌入、编码、参与、预测(explosion.ai)
使用Torch深度神经网络进行自然语言处理(nvidia.com)
使用Pytorch进行深度自学NLP(pytorich.org)
词向量
使用词袋模型解决电影评论分类(kaggle.com)
词嵌入介绍第三部份,第三部份,第三部份(sebastianruder.com)
词向量的惊人力量(acolyer.org)
word2vec参微积分习解释(arxiv.org)
Word2Vec讲义- Skip-Gram模型,负抽样(mccormickml.com)
编码器-解码器
深度自学和NLP中的注意力机制和记忆力模型(wildml.com)
序列模型(tensorflow.org)
使用神经网络进行序列自学(NIPS 2014)
机器自学很有意思第五部份:深度自学的语言翻译和序列的魔力(medium.com/@ageitgey)
如何使用编码器-解码器LSTM来回显随机整数序列(
machinelearningmastery.com)tf-seq2seq(google.github.io)
Python
机器自学trained专业课程(google.com)
令人敬畏的机器自学(github.com/josephmisiti)
使用Python掌握机器自学的7个步骤(kdnuggets.com)
两个示例机器自学笔记(nbviewer.jupyter.org)
使用Python进行机器自学(tutorialspoint.com)
实战案例
如何在Python中从头开始实现感知器算法(
machinelearningmastery.com)在Python中使用Scratch实现神经网络(wildml.com)
使用11行标识符在Python中实现神经网络(iamtrask.github.io)
使用Python实现你自己的k-Nearest Neighbor算法(kdnuggets.com)
来自Scatch的ML(
github.com/eriklindernoren)Python机器自学(第2版)标识符库(github.com/rasbt)
Scipy和numpy
Scipy讲义(scipy-lectures.org)
Python Numpy讲义(斯坦福CS231n)
Numpy和Scipy简介(UCSB CHE210D)
Python中的科学家trained专业课程(nbviewer.jupyter.org)
scikit自学
PyCon scikit-learn讲义索引(nbviewer.jupyter.org)
scikit-learn分类算法(github.com/mmmayo13)
scikit-learn讲义(scikit-learn.org)
简短的scikit-learn讲义(github.com/mmmayo13)
Tensorflow
Tensorflow讲义(tensorflow.org)
TensorFlow简介 – CPU与GPU(medium.com/@erikhallstrm)
TensorFlow(metaflow.fr)
Tensorflow中的RNN(wildml.com)
在TensorFlow中实现CNN进行文本分类(wildml.com)
如何使用TensorFlow运行文本全文(surmenok.com)
PyTorch
PyTorch讲义(pytorch.org)
PyTorch的简单介绍(gaurav.im)
讲义:PyTorch中的深度自学(iamtrask.github.io)
PyTorch示例(github.com/jcjohnson)
PyTorch讲义(github.com/MorvanZhou)
深度自学研究人员的PyTorch讲义(github.com/yunjey)
微积分
机器自学微积分(ucsc.edu)
机器自学微积分(UMIACS CMSC422)
线性代数
线性代数直观指南(betterexplained.com)
程序员对矩阵乘法的直觉(betterexplained.com)
了解Cross产品(betterexplained.com)
了解Dot产品(betterexplained.com)
用于机器自学的线性代数(布法罗大学CSE574)
用于深度自学的线性代数备忘单(medium.com)
线性代数评论与参考(斯坦福CS229)
概率论
用比率理解贝叶斯定理(betterexplained.com)
概率论入门(斯坦福CS229)
机器自学的概率论讲义(斯坦福CS229)
概率论(布法罗大学CSE574)
机器自学的概率论(多伦多大学CSC411)
微积分
如何理解导数:商数准则,指数和对数(betterexplained.com)
如何理解导数:产品,动力和链条准则(betterexplained.com)
矢量微积分:了解渐变(betterexplained.com)
微分学(斯坦福CS224n)
微积分概述(readthedocs.io)
责任编辑由阿里云云栖社区组织翻译。
文章原标题《
over-200-of-the-best-machine-learning-nlp-and-python-tutorials-2018-edition》译者:Robbie Allen
译者:虎说八道,审校:。