程序媛的日常

其他

干货 | 深入浅出 GAN·原理篇文字版(完整)

连续实际上是要求一个连续函数的导函数的绝对值不大于某个常数,也就是说,它限制了一个连续函数的最大局部变动幅度。这个对于由神经网络来拟合的函数来讲,导数可以粗暴理解为神经网络的权重。所以在
2017年5月25日
其他

干货 | 孪生三兄弟 CycleGAN, DiscoGAN, DualGAN 还有哪些散落天涯的远亲

回顾今天提到的9篇论文,虽然是按照时间发展的逆序(也就是从最新开始回顾)的方法介绍的,但是反过来来理解就可以梳理出一条发展线。单向到双向,单个到多个。很多东西是相通的,希望和大家多多讨论,互相启发。
2017年5月11日
其他

ICLR 2017 | Highlight 2: Invariant Representation Learning

做第一个专注于程序媛的公众号!两位小小程序媛带你领略程序媛的日常,有专业知识也有生存技能。//其实我们的生活也可以过得很精彩!
2017年5月4日
其他

ICLR 2017 | Highlight 1: Meta- and Few-shot Learning

当我们没有足够多的标注数据来提供训练时,我们往往想从其他的无标注数据(无监督学习)、多模态数据(多模态学习)和多领域数据(领域迁移、迁移学习)里来获得更多帮助。在这种动机的驱动下,few-shot
2017年5月3日
其他

ICLR 2017 | Reinforcement learning with unsupervised tasks

大家大家大家真是好久不见……我实在是太太太太太忙了。鉴于未来也应该还是很忙,为了能继续更新,可能会将以前几篇论文作为一个专题一起发送的方式改成一篇论文一发……还请大家见谅。今天发的是
2017年3月10日
其他

干货 | Generative Adversarial Networks(GAN)的现有工作

Networks(GAN)。从模型名称上甚至都可以看出一些发展轨迹:GAN->CGAN->LAPGAN->DCGAN->GRAN->VAEGAN
2016年2月29日
其他

心态 | 马克.维瑟奖首位女性获奖者周源源教授交流会感想

Goldwasser(12年图灵奖获得者)跟她说:“你有没有想过,你觉得容易的事不一定是没趣的,说不定正是你擅长的呢?”我们常想做的事是“取长补短”,或许更应该去“扬长避短”。
2015年12月21日