「机器学习-李宏毅」:Unsupervised-PCA
这篇文章详细讲解了无监督学习(Unsupervised learning)的PCA(主成分分析法)。
文章开篇从聚类(Clustering)引出Distributed Represention,其中粗略阐述了聚类中K-means和HAC(层次聚类)的思想。
文章的后半部分具体阐述了PCA的数学细节,PCA的去相关性性质,PCA的另一种解释角度(component的角度),PCA的不足等。
这篇文章详细讲解了无监督学习(Unsupervised learning)的PCA(主成分分析法)。
文章开篇从聚类(Clustering)引出Distributed Represention,其中粗略阐述了聚类中K-means和HAC(层次聚类)的思想。
文章的后半部分具体阐述了PCA的数学细节,PCA的去相关性性质,PCA的另一种解释角度(component的角度),PCA的不足等。
PyTorch框架学习。
本篇文章主要介绍PyTorch中的Tensor及其基本操作,主要分为四个方面:Reshape, Element-wise, Reduction和Access。
Tensor的具体操作介绍,建议配合Colab笔记使用:
Tensor Operations: Element-wise
Tensor Operation: Reduction and Access
英文的表达解释都是比较清晰且精确的,所以以英语的形式作为主要记录,文中会夹带一些中文总结语句,方便阅读。
PyTorch框架学习。
本篇文章主要介绍PyTorch的相关背景知识。
这篇文章主要是介绍一种无监督学习——Word Embedding(词嵌入)。
文章开篇介绍了word编码的1-of-N encoding方式和word class方式,但这两种方式得到的单词向量表示都不能很好表达单词的语义和单词之间的语义联系。
Word Embedding可以很好的解决这个问题。
Word Embedding有count based和prediction based两种方法。文章主要介绍了prediction based的方法,包括如何predict the word vector? 为什么这样的模型works?介绍了prediction based的变体;详细阐述了该模型中sharing parameters的做法和其必要性。
文章最后简单列举了word embedding的相关应用,包括multi-lingual embedding, multi-domain embedding, document embedding 等。
LeetCode Math 专题记录。
10月初。
Albert Einstein:
“I believe that not everything that can be counted counts, and not everything that counts can be counted”
「并非所有重要的东西都是可以被计算的,也并不是所有能被计算的东西都那么重要。」
LeetCode String 专题记录。
9月毕。
「我祝福你有时有坏运气,你会意识到概率和运气在人生中扮演的角色,并理解你的成功并不完全是你应得的,其他人的失败也并不完全是他们应得的。」
「不想要刚好错过的悔恨,那就要有完全碾压的实力。」
8月某司实训+准备开学期末考,我可太咕了q w q…dbq,(希望)高产博主我.我..又回来了。
LeetCode Array专题,持久更新。(GitHub)
温故知新:对Web基础知识——HTML和CSS的持续更新。
本篇文章主要分四个部分,首先介绍了Docker是什么:为什么会有Docker技术的出现;虚拟化技术和容器虚拟化技术的区别;Docker的基本组成;Docker的运行为什么会比虚拟机快。
第二个部分主要介绍了Docker的常用命令,包括镜像命令和容器命令,文中还从底层的角度分析Docker镜像。
第三个部分介绍了Docker中的容器数据卷,和如何挂载数据卷。
最后一个部分,简单介绍了Dockerfile文件。
这篇文章具体讲述了Git工具的基本本地库操作和与远程库交互的基本操作,包括使用GitHub进行团队外的协作开发。