博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
OpenAI及DeepMind两团队令未来的AI机器更安全
阅读量:5984 次
发布时间:2019-06-20

本文共 1104 字,大约阅读时间需要 3 分钟。

OpenAI和DeepMind的研究人员使用的新算法从人类反馈中学习,他们希望这样做能使人工智能更安全。

两家公司均为强化学习的专家,强化学习是机器学习的一个领域,其基本思想是,如果代理在特定的环境里采取正确的行动完成了任务就给予奖励。该目标是通过一种算法来指定的,代理经过程序后就会追逐奖励,例如游戏中的获胜点。

强化学习在训练机器如何玩如Doom或Pong等游戏或通过模拟驾驶自主驾驶汽车等案例中取得了成功。强化学习是探索代理行为的一个有效的方法,但如果硬编码算法错了或产生不良影响的话,这种方法可能也有危险。

arXiv上发表的一篇论文描述了一种有助于防止此类问题的新方法。首先,代理在其环境中执行随机动作。预测的奖励则是基于人类的判断,而且奖励被反馈到强化学习算法中,以改变代理的行为。

 

系统在人类指导下制定最佳行动及学习目标

研究人员将这种算法用于训练一个弯曲的灯柱往后仰。代理的两个视频然后再交给人观看,观看者选择哪一个的后仰动作更佳一些。

经过一段时间后,代理就逐渐学习了如何根据奖励函数最有效地解释人类的判断来学习目标。强化学习算法用于指导代理的行为,并可以持续在人类的批准下进行改进。

网上可找到相关的视频。(https://www.youtube.com/watch?v=oC7Cw3fu3gU)

人类评估者花掉的时间不足一个小时。但要完成做饭或发送电子邮件等更复杂的任务就会需要更多的人类反馈,从财务的角度来看则是昂贵的。

文章的作者之一达里奥·阿莫德(Dario Amodei)是OpenAI的一名研究人员,他表示,未来研究的重点会放在减少监督方面。

他告诉记者,“泛泛而言,名为半监督学习的技术在这一块可能有帮助。另一种可能性是提供更信息密集的反馈形式,如语言,或是让人类在屏幕上具体指出表示良好行为的部分。更多的信息密集反馈可能会让人类在更短的时间内更多地与算法进行沟通。“

上述研究人员在其他模拟机器人任务和Atari游戏里测试了他们的算法,结果显示机器有时可以实现超人式的性能。但这在很大程度上取决于人类评估者的判断。

OpenAI在一篇博文里表示,“我们算法的性能只能和人类评估者对于什么是正确行为的直觉一样好,所以,如果人类对一个任务没有很好的把握,那他们可能提供不了太多有用的反馈。”

阿莫德表示,目前的结果仅局限于非常简单的环境。但这种方法大有可能对有些很难学习的任务有用,这些任务的奖励功能很难量化,例如驾驶、组织事件、写作或技术支持的提供。

原文发布时间为:2017年6月14日 
本文作者:作者:杨昀煦
本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

转载地址:http://dpgox.baihongyu.com/

你可能感兴趣的文章
一块GPU就能训练语义分割网络,百度PaddlePaddle是如何优化的?
查看>>
SSH 免密登录
查看>>
微服务实战:从架构到发布(一)
查看>>
Linux命令
查看>>
Win 7 下 C++ 编译环境 MSYS2 MinGW 64-bit + Visual Studio Code
查看>>
第十七天-企业应用架构模式-会话状态模式
查看>>
React入门0x016: 访问Dom
查看>>
记一次挂马清除经历:处理一个利用thinkphp5远程代码执行漏洞挖矿的木马
查看>>
Django搭建个人博客:根据浏览量对最热文章排序
查看>>
三年前端,面试思考(头条蚂蚁美团offer)
查看>>
巧用 TypeScript(二)
查看>>
快应用微信H5支付
查看>>
python---网络基础(socket)
查看>>
小程序构建骨架屏的探索
查看>>
python_bomb----集合
查看>>
深度学习精要之CapsuleNets理论与实践(附Python代码)
查看>>
rabbitmq中文教程python版 - 工作队列
查看>>
基于 Redis 的分布式锁
查看>>
STL学习-vector
查看>>
java9系列(八)Multi-Release JAR Files
查看>>