EMC易倍官方网站
全部
All
当前位置: 首页 > 新闻资讯 > 2018年,人工智能要解决的难题
相关新闻
  • 腾讯一路狂奔能否在早一个“腾讯”

    2026-04-29 08:31

    9月的深圳,空气中多了一丝秋的味道。2018年9月30日,腾讯开启了一场“决定未来20年命运”的大转型,全面发力产业互联网。作为承载腾讯转型产业互联网最核心的部门,某种意义上,CSIG的使命

  • 低价营销型网站建设的危害

    2026-04-28 17:29

    建站技术快速的发展,让网站建设变得很是普遍。企业在没有真的认识到营销网站的价值以前,在咨询建站公司时,很多人都在问“建设一个企业网站需要多少钱”。很多人忽略了不同需求的网站所要实现的网站功能

  • 谷歌AI负责人:AI发展需与全球政府合作

    2026-04-26 13:49

    5月9日上午消息,根据公司的一名工程师的说法,哪怕很近人工智能、隐私和假新闻一类的话题较为敏感,谷歌仍旧非常重视与全球政府之间的合作。“和全球政府之间的合作非常重要,了解他们对AI的看法——

  • EMC易倍官方网站签约行知始成教育,打造全新数字化品牌官网

    2026-04-22 11:28

    近日,EMC易倍官方网站与北京行知始成教育科技有限公司(以下简称行知始成教育)达成合作,为行知始成教育提供品牌官网建设服务,助力行知始成教育实现全面品牌数字化转型。行知始成教育是一家专业的中小学生核

  • EMC易倍官方网站小程序开发公司带您了解定制开发小程序的好处

    2026-04-05 07:10

    自从微信小程序出现,微信小程序就有了APP的功能,不需要用户安装,用完就可以关闭。小程序的这些优势刚刚引起各大公司的重视,越来越多的公司开始利用微信小程序进行营销推广。小程序在营销上的优势很

2018年,人工智能要解决的难题

返回列表
发布时间:2026-04-16 23:32
2017年关于杀手级机器人的讨论非常热烈,人工智能也取得了重大的突破。比如,一台名为Libratus的机器人力胜多名扑克高手。在现实世界中,机器学习被用于改进农业,拓宽医疗服务覆盖面。
北京网站设计案例
但是如果你使用过Siri或Alexa,你会发现人工智能尽管非常热门,但是仍然有很多事情无法处理或者理解。
理解语意
机器对于文本和语言的理解能力比起过去有飞速发展,Facebook可以为视力不好的人士描述图片,谷歌可以根据邮件内容提供回复建议。然而软件依然理解不了我们的话语和思路。“我们可以学习概念,并通过不同的方式把这些概念结合起来,应用到新的情境之中,”波特兰州立大学教授Melanie Mitchell说。“但这些AI和机器学习系统不会。”
Mitchell认为当前软件还受限于数学家吉安-卡洛·罗塔所说的“思想的屏障”,一些的AI团队正在尝试克服这一障碍。
其中一项尝试是让机器人和人类一样现实世界和常识有基本的了解。Facebook研究人员正试图教软件理解现实,比如通过看视频。也有团队侧重于让软件模仿人类对世界的理解来完成某些行为。谷歌在打造学习比喻的软件。Mitchel体验过一些系统,利用类比的方法和一堆有关世界的概念来解读照片中的情况。
阻碍机器人革命的现实差距
机器人硬件发展越来越好了,你可以花500刀买到手掌大小、配备高清摄像头的无人机。双脚行走,搬运盒子的机器人也在不断被改进。但是为什么普通人周围没有被各式各样的机械助手包围呢?——目前的机器人大脑的技术发展远远落后于肢体技术。
要让机器人完成特定的任务,需要针对专门的任务进行编程。他们通过不断试错来学习抓住物体,但是这个进程比较缓慢。一个比较可行的方法是让机器人在虚拟世界中进行训练,再将训练所获得的知识数据下载到实体机器人的身体中。但是现实总是骨感的,虚拟环境中机器人的训练成果不一定在现实世界中完全有效。
可喜的是这个差距在缩小。去年10月,谷歌发布了一批喜人的实验室结果,模拟与现实机械手臂学会了捡起多种物体,包括胶带分配器、玩具和梳子。
对致力于自动驾驶汽车的人而言,进一步的进展非常重要。在自动驾驶技术的竞赛中,企业纷纷在模拟街道上部署虚拟汽车,从而减少在实地交通和道路环境中测试所需的时间和资金。自动驾驶初创企业Aurora公司CEOChris Urmson说,其团队的优先事项之一是让虚拟测试更加适用于现实车辆。“未来一年左右,如果能利用虚拟测试加速机器学习,那太好了,”厄姆森说。他之前领导过谷歌母公司Alphabet的自动驾驶汽车项目。
防范AI攻击
电网、安防摄像头和手机的软件中有很多安全漏洞。无人汽车和家用机器人也无法幸免。甚至可能会更糟:机器学习软件的复杂性为攻击提供了新的渠道。
今年有研究显示,你可以在机器学习系统中隐藏一个暗门,使它一收到特定信号,便切换成邪恶模式。纽约大学设计了一个正常运行的路边系统,这个系统一旦看到黄色的便签纸会出现问题。比如布鲁克林一块停车路标上贴了一张便签纸,系统将其识别为限速标志。类似这样的情况也许会给自动驾驶汽车构成麻烦。
不止是棋盘游戏
2017,击败了很多世界的AlphaGo继续进展神速。5月,AlphaGo的增强版在中国击败了多名围棋。其创造者,Alphabet旗下研究部门DeepMind后来又构建了一个版本,名为AlphaGo Zero,在不学习人类棋步的情况下,自学学会了围棋。12月,又再度升级,可以学会象棋和日本将棋(不过不能同时学)。
上述的成果固然让人们欣慰,但同时也说明目前的AI软件还是有局限性。象棋、围棋、将棋虽然很复杂,但规则却相对简单,每走一步双方都能看到。快速穷举未来“情况”这事,计算机是很在行的,但在现实生活中的情况和问题无法如此结构分明
正因如此,DeepMind和Facebook都在2017年开始研究AI在多玩家游戏《星际争霸》的可能性。目前很好的机器人(出自业余人士之手)也无法击败一般玩家。今年早些时候,DeepMind的研究员 Oriol Vinyals接受采访时说,他们的软件现在还不具备规划与记忆能力,无法一边组建并指挥军队的同时,预测对手的下一步行为和应对。这些技能也可以让软件更好地协助现实世界的任务,比如办公室工作或者真实的军事行动。2018年,《星际争霸》或类似游戏的重大进展也许预示着AI将会有强大的新用途。
让AI区分是非
即便上述领域没有新的进展,现有AI技术普及之后,经济与社会的各方面也会发生重大的变化。当政府和企业忙于普及AI的同时,也仍有人对AI和机器学习潜在危害的十分担心。
在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,其中一个主题如何让AI技术保持在安全且合乎道德的范围之内。研究人员发现,由于我们的世界跟相距甚远,机器学习系统在接受已有数据的训练时,会学到不道德或不可取的行为,比如以刻板印象对待男女两性。有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。
2018年,更多的科技公司会关注如何让AI正确为人类服务。谷歌、Facebook、微软等已经在探讨这个问题,并且是非营利机构AI合作组织(Partnership on AI)的成员。该机构将研究并试图规范AI对社会的潜在影响。也有其他的第三方部门也开始施压。一个名为人工智能伦理与治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善项目正在支持MIT、哈佛等机构的AI和公共利益研究。纽约大学新成立的AI Now也肩负起了类似的使命。在很近的一项报告中,该研究机构向政府发出呼吁,要求他们承诺,在刑事司法或福利等领域,不再使用不受公开审查的“黑箱”算法。