白日梦想家
BERT阅读与总结 BERT阅读与总结
BERT阅读与总结最近google放出的BERT引起了NLP领域很大的反响,在11项NLP tasks中取得了state-of-the-art的结果,包括NER、问答等领域的任务。看完论文和网上的讨论,总结了几个关键点。 BERT模型结构B
2018-12-11
Linux监控GPU和释放GPU显存 Linux监控GPU和释放GPU显存
Linux监控GPU和释放GPU显存 监控GPU在终端中输入watch -n 10 nvidia-smi数字代表每隔10秒刷新一次终端的显示结果。结果如下图所示 释放GPU显存有时候使用nvidia-smi命令发现显卡显存被占用了,但没有
2018-12-07
使用gensim库训练word2vec词向量 使用gensim库训练word2vec词向量
使用gensim库训练word2vec词向量import pandas as pd import gensim import time import pickle import numpy as np vector_size = 100
2018-08-02
nvidia-smi命令解读 nvidia-smi命令解读
nvidia-smi命令解读nvidia 的系统管理界面 (nvidia-smi),可以收集各种级别的信息,查看显存使用情况。此外, 可以启用和禁用 GPU 配置选项 (如 ECC 内存功能)。在实验室里大家共用显卡,每次跑代码前都看下GP
2018-08-01
pytorch构建模型 pytorch构建模型
pytorch构建模型构建模型过程 设计自己的模型类class Net(nn.Module): def __init__(self): super(Net,self).__init__()
2018-07-27
ML-协同过滤 ML-协同过滤
协同过滤是常见的推荐算法,之所以称为协同是因为该方法基于其他用户进行推荐。 常用概念公式 曼哈顿距离 $|x_1 - x_2| + |y_1 - y_2|$ 欧氏距离 $\sqrt{(x_1 - x_2)^2 + (y_1 - y_2)
2017-11-23
【转自mactalk】软姐讲机器学习 【转自mactalk】软姐讲机器学习
这篇文章转自池健强老师的微信公众号MacTalk,作者是硅谷女博士朱赟,毕业于科大少年班和美国莱斯大学,现在 Airbnb 任职。集美貌与智慧于一身,并世无双,请欣赏:池 哥让我分享下机器学习,开始的时候我的内心是拒绝的。原因有两个。一是
2015-12-24
机器学习(二) K-近邻算法(kNN) 机器学习(二) K-近邻算法(kNN)
一.综述:1.1 Cover和Hart在1968年提出了最初的邻近算法1.2 分类(classification)算法1.3 输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning)1.
2015-11-02
机器学习(一)基本介绍 机器学习(一)基本介绍
1.学习原因由于对python和算法的喜爱,以及渴望能深入的学习一些本质的问题,便开始学习机器学习。 2.机器学习 (Machine Learning, ML)2.1 概念:多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论
2015-10-10