五、人工智能
各国对人工智能的重视由来已久,国家、行业和企业层面的国际竞争态势愈演愈烈。2020年,各国不断加大对人工智能的政策支持、资金投入和人才培养的力度,促进技术进步与行业创新。同时,人工智能研究已有多项实际应用,赋能消费、金融、农业和制造业等多个实体行业。
(一)基础研究
人工智能的基础研究是推动人工智能技术进步和应用落地的底层因素。各类模型、算法的不断改进、完善,算力的不断提升,使得人工智能在计算精确度、学习能力和应用面等方面得到极大提升。
1. 美国陆军为神经网络推出新的可靠性度量指标
2020年4月,美国陆军为神经网络推出新的置信度和可靠性指标,以测量下一代人工智能和机器学习算法的可靠性。在这项工作中,研究人员提出了一个生成模型,该模型可以调整底层原始深层神经网络中原始输入图像的各个方面,并评估其对生成数据的响应,以测量模型的一致性,防止人工智能系统被超出其训练范围的新信息所欺骗,保障神经网络工作的准确性。新的置信度和可靠性指标将帮助深度神经网络通过安全可靠的机器学习技术习得技能,应用于命令和控制系统、精确射击和决策支持系统。
2. 美国非营利组织OpenAI宣布开始追踪人工智能模型效率的演进
2020年5月,美国非营利组织OpenAI宣布开始追踪机器学习模型的效率,并对人工智能算法演进的情况进行定量追踪。为此,OpenAI发布了一份报告,对以往人工智能模型效率的演进进行分析。报告指出与2012年相比,2019年的神经网络训练到作为基准的AlexNet水准所需要的计算量减少到原来的1/44,相比之下,摩尔定律在相同时间内效率的增长只有11倍。这表明算法效率在7年的时间里每16个月翻一番,已超越摩尔定律中定义的半导体性能增长速率。OpenAI表示,算法进步是推动人工智能发展的关键因素,而追踪人工智能模型效率演进将有助于行业和政策制定者更好地决定投入的重点。
3. IBM公司开发出高精低功耗机器学习新方案
2020年5月,IBM公司研究人员基于相变存储器技术开发出一种能同时兼顾能源效率和高精度的机器学习方案。许多现有的人工智能推理方案在物理上拆分了内存和处理单元,各单元间的数据传输将减慢处理速度并增加用电量。IBM研究人员开发的新方法是一种使用基于电阻的存储设备来实现内存内计算的方法,并在人工智能模型训练期间注入额外的噪声,提高了模型的韧性,同时弥补了数据存储和计算环节分开的缺陷,大大降低了功耗。实验结果表明,新方法训练出的人工智能模型准确度保持在92.6%以上。尽管该技术仍处于初级研究阶段,但其具有促进人工智能硬件向高速、低功耗方向发展的潜力。
4. 英特尔、麻省理工学院和佐治亚理工学院拟创建自编程的机器学习系统
2020年8月,美国英特尔公司机器编程研究小组、麻省理工学院和佐治亚理工学院(Georgia Institute of Technology,Gatech)宣布他们正在创建一种新的机器学习系统MISIM,可自动生成计算机代码。该系统拥有一个包含1750亿个参数的数据库,能够根据简单的非技术性指令生成代码,其工作流程为分析说明文档并理解需要完成的工作,随后从代码存储库中查找类似代码并完成整合工作。MISIM系统还能为某一段代码提供建议,使其运行更快或更有效。随着技术的不断完善,该系统有望帮助技术人员降低编写程序的难度。
5. 美国艾伦人工智能研究所发布人工智能平台,促进嵌入式人工智能的研究
2020年8月,美国艾伦人工智能研究所(Allen Institute for AI)发布人工智能平台AllenAct,旨在促进嵌入式人工智能的研究。艾伦人工智能研究所的研究人员发现,现有的嵌入式人工智能模型种类较为多样、应用场景碎片化,且模式和算法的差异很大,导致嵌入式人工智能的训练花销巨大且效率低下。为此,研究人员开发出AllenAct平台以提高嵌入式人工智能训练的效率。该平台提供了多种训练环境和算法,其特点是模块化和灵活性,可通过分离任务和环境,确保训练平台与人工智能专用算法兼容,满足面向不同应用场景、任务、模式和算法的嵌入式人工智能训练,并将以开源的方式向开发者开放。
(二)模式识别
模式识别(Pattern Recognition)是指对表征事物或现象的各种形式(数值的、文字的和逻辑关系)的信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。模式识别的主要对象包括:波形、图像、文字、符号、数据等。在对这些对象的具体模式进行辨识和分类后,人工智能系统能将其中的信息以结构化的形式呈现,以供进一步利用。
1. 美国研究人员提出使用人工智能技术实现盲区物体成像
2020年1月,美国斯坦福大学、莱斯大学(Rice University,Rice)、普林斯顿大学(Princeton University)和南方卫理公会大学(Southern Methodist University,SMU)研究人员共同开发出一个基于人工智能与激光探测技术的非视距探测系统,可对拐角处的隐藏物体进行成像。研究人员使用激光的反射光线照射盲区内的物体,并使用深度学习技术对照射后产生的干涉图案进行还原,可生成分辨率为300微米的重构图像。该技术有望应用于自动驾驶、导航、地理探测、国防和医疗等领域。
2. 奥地利维也纳技术大学光子学研究所开发出新人工智能芯片,可以在40纳秒内执行图像分类任务
2020年3月,奥地利维也纳技术大学光子学研究所研究人员开发出新型人工智能芯片,可以在40纳秒内执行图像分类任务。研究人员将光敏电子设备与神经网络结合在一个微小的芯片上,使芯片具备传感能力,可在数十纳秒内感知到所看到的东西。相比于传统图像识别设备,新型人工智能芯片无须转换和传递数据,可以用更少的功率更快地识别图像。
3. DARPA与英特尔、佐治亚理工学院合作开发可抵抗欺骗攻击的人工智能工具
2020年4月,DARPA与英特尔公司及佐治亚理工学院合作,共同开发可抵抗欺骗攻击的人工智能工具。由于人工智能算法存在被欺骗的风险,DARPA启动一项名为“增强人工智能对欺骗的鲁棒性”(Guaranteeing Artificial Intelligence Robustness against Deception,GARD)的项目。该项目的初始阶段将着重于利用图像和视频中的空间、时间和语义的一致性来改进物体检测,使得人工智能能够自适应地学会如何识别欺骗。DARPA表示,希望通过该项目产生可以广泛应用于各种场景的防御方法,确保人工智能不会受到欺骗。
4. 美国内华达大学受昆虫启发开发出用图像估算飞行器速度的新算法
2020年5月,美国内华达大学研究人员开发出一种名为FLIVVER的新算法,可根据图像估算飞行器速度。该算法是受昆虫使用视觉信息估算飞行速度的方法启发而来的,可对图像中物体的相对距离变化产生评估,以此精确推算出飞行器的速度。相比于此前利用视觉信息估算物体移动速度的非线性优化算法,FLIVVER算法可降低对计算资源的需求量,通过滤波器直接计算出速度相关量的二阶倒数,对速度进行估算。该算法可单独使用也可以和其他算法结合以进一步提高效率,但目前仅能估算飞行器直线运动的速度。研究人员希望FLIVVER算法可为小型无人机的速度估算提供一种有效的通用方法。
5. 美国非营利组织OpenAI发布人工智能语言处理模型GPT-3
2020年5月,美国非营利组织OpenAI发布超大型自然语言理解模型GPT-3,拥有强大的语言处理功能。该模型拥有1750亿个参数,训练所用数据集容量达到45太字节。开发人员仅需输入文本提示,GPT-3即可根据指令完成写作、翻译、问答、完形填空和推理等言语任务,且准确度极高。该成果证明,使用大量文本进行预训练,并针对特定任务进行微调,可以使语言处理模型的性能获得巨大提升。
6. DARPA拟利用人工智能识别深度伪造类虚假信息攻击活动
2020年7月,DARPA发起“对欺骗的逆向工程”(Reverse Engineering of Deceptions,RED)项目,旨在运用人工智能技术,对深度伪造(Deepfake)视频、照片、音频、文字及其制造这些内容的工具链进行逆向工程分析。该项目属于“人工智能探索机会”(AIE Opportunity)系列项目的一部分,其第1阶段的目标是开发一种或一系列算法,以自动识别虚假信息攻击活动背后的工具链;第2阶段则致力于发展针对造假工具的数据库,来支持开展有针对性的防御和溯源。DARPA期望通过RED项目实现对虚假信息攻击的识别和分析,并拥有批量化处理的能力。
7. 美国麻省理工学院开发出使用咳嗽声检测新冠病毒无症状感染者的人工智能工具
2020年11月,美国麻省理工学院研究人员开发出一种使用咳嗽声检测新冠病毒无症状感染者的人工智能工具。研究人员发现,新冠病毒无症状感染者发出的咳嗽声与健康人不同,其中细微的差别很难为人耳所分辨,但可以由人工智能分辨。为此,研究人员开发出一种人工智能算法,通过对包含7万条新冠病毒无症状感染者的咳嗽录音的数据库进行学习,可准确识别出新冠病毒无症状感染者。目前,麻省理工学院研究人员已与一家企业展开合作,计划将该人工智能算法整合到手机应用程序中。同时,该研究成果也同步提交到美国食品药品监督管理局和其他监管机构。如果最终获得批准,咳嗽检测应用程序将免费用于大规模人群筛查。
8. IBM公司为沃森人工智能平台添加新功能,提高其自然语言处理能力
2020年12月,IBM公司为其沃森(Watson)人工智能平台添加新功能,旨在提高人工智能的自动化程度,提供更高精度的自然语义处理(Natural Language Processing,NLP),并加强人们对人工智能预测结果的信任度。这项功能可使用自然语言处理技术自动从用户问答文档中提取问题和答案并进行自动配对,能帮助企业时刻保持最新答案的更新,并减少手工更新的耗时。IBM Watson助手中还提供了一个新意图分类模型,能更准确地了解终端用户在使用虚拟助手时的目标或意图,并使管理员能够更快地培训系统。与以往的商业系统相比,该模型通过较少的数据提供更准确的结果。
(三)复杂系统控制与智能信息处理
在通过模式识别获得结构化的信息后,人工智能需要运用这些数据解决实际的问题。这就要求人工智能能够对信息进行智能处理,并自主做出决策、执行操作。谷歌公司开发的围棋机器人AlphaGo和游戏机器人AlphaStar、脸书人工智能实验室和卡耐基梅隆大学(Carnegie Mellon University,CMU)开发的国际象棋机器人Pluribus等即为此类人工智能系统的典型代表,其进行的工作通常具有数据量大、系统庞大和参数复杂的特征。一旦此类人工智能取得突破,将对解决经济、人口、战争等领域的复杂问题提供重大帮助。
1. 美国查尔斯河分析公司将为美国国防部开发用于改进蜂群战术的强化学习方法
2020年1月,美国查尔斯河分析公司(Charles River Analytics)获得DARPA“进攻性蜂群战术”(OFFSET)项目合同,为其开发一种用于改进蜂群战术的强化学习方法。该方法通过构建场景丰富、复杂且不可预测的试验环境,辅助研究人员测试蜂群战术的效果,并对其进行自动优化以实现多种任务目标。查尔斯河分析公司研究人员表示,该强化学习方法具有高度灵活的特性,将极大提高蜂群战术的作战效能。
2. 丹麦奥尔胡斯大学使用人工智能控制量子计算系统
2020年1月,丹麦奥尔胡斯大学研究人员成功使用谷歌公司旗下的人工智能软件AlphaZero控制量子计算系统。AlphaZero可在没有任何人工标注和知识预存的状态下进行自主学习。研究人员将其与专用量子优化算法结合,结果展现出优异的性能。此前,AlphaZero已通过此方式学习国际象棋玩法并战胜顶级人类玩家。此研究成果或将进一步促进科学家对量子系统控制的研究。
3. 亚马逊公司云服务部门拟使用人工智能帮助NASA预测超级太阳风暴
2020年1月,亚马逊公司云服务部门(Amazon Web Servicesm,AWS)与NASA合作,拟使用人工智能技术预测超级太阳风暴的爆发。超级太阳风暴活动会对电网和卫星系统造成破坏。为此,研究人员利用过往太阳风暴爆发的电磁信号数据训练人工智能分析工具,以对太阳风暴进行预警,使卫星操作员与电网管理者可提前进行操作,避免受到太阳风暴的影响。
4. DARPA开始测试“指南针”项目中开发的辅助决策工具
2020年3月,DARPA开始测试“通过规划主动的情景想定进行情报收集和监视”(Collection and Monitoring via Planning for Active Situational Scenarios,COMPASS)项目中开发的辅助决策工具(该项目也被称为“指南针”)。“指南针”项目旨在利用先进的人工智能技术提高指挥官面对复杂破坏活动的决策效能,并为战区作战人员和指挥人员提供强大的决策辅助分析工具。项目中开发的辅助决策工具可利用大数据分析环境态势和敌方动机,利用模糊数据推断出完整信息。目前,DARPA正在与美军印太司令部情报、作战、计划和政策部门合作,希望通过真实数据对辅助决策工具进行测试和改进。
5. 谷歌公司利用人工智能算法实现自动化芯片设计
2020年4月,谷歌公司利用人工智能算法成功实现自动化芯片设计。研究人员将深度强化学习算法与芯片设计工具结合,使人工智能系统在不需要大量学习样本的条件下,实现边做边学,完成芯片设计。借助该种算法,人工智能系统可以在短时间内分析潜在的数百万种芯片布线的可能性,以优化芯片设计、提高芯片性能。经过广泛的测试,研究人员发现该算法设计的芯片在部分结构上要优于工程师设计的产品,可促使更简化、更小的芯片设计出现,有望确保摩尔定律的延续。
6. DARPA拟开发人工智能敌军模型以改进作战推演
2020年6月,DARPA发布了“针对敌方战术的建设性机器学习作战”(COnstructive Machine-learning Battles with Adversary Tactics,COMBAT)项目征询公告,寻求利用人工智能算法开发敌军旅级部队的行为模型,在仿真环境中与美军部队开展模拟对抗,帮助美军快速推演行动方案并开展行动计划。若该项目开发成功,可帮助美军快速开发多个可用的敌军行动方案,以改进美军的作战指挥。