主页 > 新闻 > >>  正文

AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜

2019-01-29 02:27 来源:互联网综合 编辑:WBYUN

  【新智元导读】AAAI 2019今天公布最佳论文最佳学生论文等奖项,在7745篇投稿论文、16.2%录取率的竞争下,来自以色列理工学院、CMU、斯坦福和MIT的论文分别斩获大奖,其中强化学习、零样本学习尤其受到关注。

  作为2019年人工智能学界的第一个顶会,AAAI 2019已经在美国夏威夷拉开了帷幕。

  今年AAAI大会主席是AI、机器人研究领域著名专家、德州大学奥斯汀分校的Peter Stone教授 ,南京大学周志华教授、乔治亚理工大学Pascal Van Hentenryck教授是联合程序主席。

  早在大会开始前,周志华教授已经透露AAAI 2019的论文录取率:16.2%,可以说是AAAI录取率最低的一年。而且,今年的投稿数量高达7745篇,比去年翻了一番,创下AAAI历史新高!

AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜

  日前,AAAI 2019 最受瞩目的各大奖项已经全部公布,包括最佳论文奖和最佳学生论文奖、经典论文奖、蓝天创意奖、杰出教育家奖、Robert S. Engelmore纪念奖,Feigenbaum 奖等。

  2019 AAAI经典论文奖

  2019 AAAI经典论文奖授予了2002年在加拿大举行的第18届AAAI会议最具影响力的论文:

  Content-Boosted Collaborative Filtering for Improved Recommendations

  作者:Prem Melville, Raymond J. Mooney, Ramadass Nagarajan

  作者机构:德克萨斯大学

  论文地址:

  https://www.cs.utexas.edu/~ml/papers/cbcf-aaai-02.pdf

  这篇论文提出一种在推荐系统中补充基于内容和协同过滤方法的方法。

  论文的第一作者Prem Melville将在1月29日上午11:30进行演讲。

  最佳论文奖(Outstanding Paper Award)

  今年,AAAI的“Outstanding Paper Award”共提及4篇论文,其中最佳论文及提名、最佳学生论文及提名各有一篇,这些奖项将由大会程序主席Pascal Van Hentenryck和周志华在颁发。

  AAAI-19 最佳论文奖

  如何在强化学习中结合树搜索方法(How to Combine Tree-Search Methods in Reinforcement Learning)

  作者:Yonathan Efroni, Gal Dalal, Bruno Scherrer, Shie Mannor

  机构:以色列理工学院,法国国家信息与自动化研究所(INRIA)

  链接:https://arxiv.org/abs/1809.01843

  最佳论文提名:

  Solving Imperfect-Information Games via Discounted Regret Minimization

  作者:Noam Brown, Tuomas Sandholm

  机构:卡内基梅隆大学(CMU)

  链接:https://arxiv.org/abs/1809.04040

  AAAI-19最佳学生论文奖

  Zero Shot Learning for Code Education: Rubric Sampling with Deep Learning Inference

  作者:Mike Wu, Milan Mosse, Noah Goodman, Chris Piech

  机构:斯坦福大学

  链接:https://arxiv.org/abs/1809.01357

  最佳学生论文奖提名:

  Learning to Teach in Cooperative Multiagent Reinforcement Learning

  作者:Shayegan Omidshafiei, Dong Ki Kim, Miao Liu(刘淼), Gerald Tesauro, Matthew Riemer, Chris Amato, Murray Campbell, Jonathan How

  机构:MIT、IBM、美国东北大学

  链接:https://arxiv.org/abs/1805.07830

  CMU、斯坦福、MIT等摘获最佳论文奖,强化学习最受关注

  AAAI-19 最佳论文奖

  如何在强化学习中结合树搜索方法(How to Combine Tree-Search Methods in Reinforcement Learning)

  作者:Yonathan Efroni, Gal Dalal, Bruno Scherrer, Shie Mannor

  机构:以色列理工学院,法国国家信息与自动化研究所(INRIA)

AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜

  论文简介:

  有限时域前瞻策略(Finite-horizon lookahead policies)已经在强化学习中得到广泛应用,并取得了令人印象深刻的实证成果。通常,前瞻性策略是通过特定的规划方法实现的,例如蒙特卡洛树搜索(Monte Carlo Tree Search),AlphaZero正是应用了该方法。将规划问题视为树搜索,实现上的一种合理做法是只备份叶节点上的值,而根节点上获得的信息只用于更新策略。

  在这篇论文中,作者质疑了这种方法的有效性,认为后一过程通常是非收缩的,其收敛性没有保证。

  论文提出一种简单明了的增强方法:使用最优树路径的返回值来备份根节点的后代的值。为了实现结果,作者引入一个称为多步贪婪一致性(multiple-step greedy consistency)的概念。然后,在树搜索阶段和值估计阶段同时注入噪声的情况下,为上述增强方法的两个算法实例提供收敛速度。

  AAAI-19最佳学生论文奖

  代码教育的零样本学习:深度学习推理的量规采样(Zero Shot Learning for Code Education: Rubric Sampling with Deep Learning Inference)

  作者:Mike Wu, Milan Mosse, Noah Goodman, Chris Piech

  机构:斯坦福大学

AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜

  论文简介:

热门搜索