更新时间:2021-10-12 19:25:15
大家好,我是本栏目的编辑郝帅。现在我给大家解释一下上面的问题。一个新的训练项目可以提醒人工智能项目,他们并不了解所有人。运行机器人、自动驾驶汽车和其他自动机器的人工智能程序通常在模拟环境中实际亮相之前执行(SN: 12/8/18,第14页)。然而,人工智能在虚拟现实中没有遇到的情况可能会成为现实决策的盲点。例如,在没有紧急车辆的虚拟城市景观中训练的送货机器人可能不知道,如果它听到警报,它应该在进入人行横道之前暂停。
麻省理工学院的计算机科学家Ramya Ramakrishnan和他的同事开发了一个模拟后培训项目,人类示威者帮助人工智能识别其教育中的差距,从而创造出谨慎对待的机器。“这使得(人工智能)能够在现实世界中安全地移动,”拉马克里什南说,他的工作在1月31日的AAAI人工智能会议上发表。工程师还可以利用AI盲点信息,在未来设计更好的模拟。
在试验期间,人工智能会关注影响人类行为的环境因素,但这些因素并不是从模拟中识别出来的。当人类做了一些AI没有想到的事情——就像在通行权的时候犹豫要不要进入人行横道——AI会扫描周围的环境,找到之前未知的元素,比如警报。如果AI检测到这些功能中的任何一个,它将假设人类正在遵循一些它在虚拟世界中没有学习到的安全协议,并且它应该在这些类型的情况下遵循人类的判断。
拉马丹和他的同事测试了这种设置,首先在简单的模拟中训练人工智能程序,然后让它们在一个更现实但仍然是虚拟的世界中从人类角色那里学习盲点。研究人员现在需要在现实世界中测试该系统。