0%

人们提出神经架构搜索(Neural architecture search, NAS) 来自动进行神经网络的调优,但是现在的搜索算法(NASNet, PNAS) 对算力要求很高。采用 Network Morphism 技术,可以在保持神经网络的功能的同时调整其神经架构,可以极大提高搜索的效率。本文提出一种使用贝叶斯优化的全新架构来进行网络架构搜索。本框架使用一个神经网络核(neural network kernel)以及一个生成树结构的优化算法来高效探索搜索空间。

阅读全文 »

来势汹汹的龙舟水给深圳降温了几天,随着太阳公公再次发力,气温再次跳到了 31 度,熟悉的闷热感又回来了。前几天的雨真的挺大的,很多地区都受灾,大家一定要注意安全。

阅读全文 »

上个周末是在云南丽江度过的,手机上打字太费力,于是周记顺延到本周。本来想着端午假第一天写,顺带祝愿一下广大学子们考出好成绩。谁知一拖就把高考都拖完了,不过我相信大家都能取得令自己满意的成绩,所以问题不大。十年前的六月,正是我参加高考的日子,十年过去了,大部分相关记忆都已经模糊,只记得数学好难以及考完就跑去买了游戏机。现在想想,人生的每一步都有自己的节奏和精彩,不要太大压力,开开心心向前走就好。

阅读全文 »

重新恢复规律写作的确是需要一个过程的,就像很久没有运动的人开始每天跑步,那么前两三天注定是要全身酸疼的。不过只要坚持过了最初的不适应,一切都会逐渐变得自然起来。我之前的想法是把工作周报和生活周记严格区分开来,但却发现工作其实也是生活的一部分,于是决定依然维持曾经的风格——想到哪写到哪。

阅读全文 »

几年前看过一本书《从零到一》,说的是互联网时代成功的企业是从无到有(从零到一)创造市场,而非传统的从一到 N 的过程。从零到一固然不易,从一到 N 更是挑战。那么,从一到二会不会简单一些?不会!真正走过才发现,每一步都不容易,每一步都需要努力。今天,我们就来聊聊小土刀从 1.0 到 2.0 的故事。

阅读全文 »

本文把程序化竞价当做是一个函数优化问题,其他特点:

  • optimal bid 与 impression level 特征(如点击率和转化率)存在非线性关系(之前的研究大多基于线性关系)
  • 更应该去竞价得到更多的展示,而不是只专注于少量高价值的展示,这样成本更低,也更容易竞价成功
阅读全文 »

一年之中最幸福的时刻大概是回顾一整年,发现自己成长了不少。整理了一下今年的12个关键词,和去年对比之后发现:一半和过去一样,是为传承;另一半崭新崭新,是为探索。细细想来,我们都是用过去武装自己迈向未来,不断把想象中的将来变成现在的过程,就是人生吧。(沿用去年的开头)

阅读全文 »

转眼来到了 2018 年的最后一个月,虽然按照农历来说还算不上收官阶段,但年底总是会有年底的特点 —— 忙,热火朝天地忙。这份忙碌甚至感动了上天,让稍微有点凉意的南国又炎热了起来,不过下周要大降温,可能这个冬天的全部配额,会在这个月消耗掉。

阅读全文 »