新国大杰出青年教授尤洋:让计算机学会以人类思维运行
在本系列中,新加坡国立大学新闻编辑室为你介绍新国大杰出青年教授(Presidential Young Professors),他们走在各自研究领域的科研前沿,将创造性想法转化为现实中的重要创新,让世界更美好。
二者谁更容易教学?是一台电脑,还是一个孩子?也许是前者,因为电脑可以完美地执行命令。也许是后者,因为尽管我们可能并不知道如何编写复杂的代码,但大多数人都知道如何与人交谈。新加坡国立大学计算机学院(NUS Computing)计算机科学系杰出青年教授尤洋(You Yang)认为,答案取决于给定的任务。
在当下这个技术发展的阶段,教会计算机处理基本的任务——如基本的图像识别——轻而易举。然而,在学习具有更高层次思维的概念方面,计算机还面临着困难和问题。
人脑是一个极其复杂的器官。人与生俱来的能力电脑很难学会。以语言为例。在六个月大时,婴儿就会咿呀学语(“妈妈”),并重复自己听到的声音。在两到三岁时,孩子开始使用介词来示意物体的位置(“猫在盒子里”),使用代词(“你”,“我”,“她”),并能回答简单的问题。
这些行为和表现需要很高的认知水平。语言由语法、语境、语气以及单个单词的定义意义组成。事实上,人类的大脑无比发达,只需不到5年的非正式学习和观察,大多儿童便能进行基本的对话。人类理解自己在世界上看到的图像的能力也是如此。那么,我们如何才能教会计算机像人类一样看待世界?
这也正是尤洋助理教授的工作领域:
开发和改进人工智能(Artificial Intelligence, AI)和机器学习(Machine Learning)。该研究领域是新国大发展、提升其能力的研究重点的一部分,以实现新加坡成为智慧国的愿景,并为新加坡研究、创新与企业2025计划(Research Innovation and Enterprise 2025, RIE2025)中智慧国(Smart Nation)和数码经济(Digital Economy)领域提供支持。
为人工智能着迷
15岁时,尤洋助理教授通过新闻,了解到了谷歌(Google)和面簿(Facebook)的爆炸式发展及增长,这个少年知道计算机将主导未来。后来,他在清华大学(Tsinghua University)学习计算机科学时,聆听了时任百度首席科学家的吴恩达(Andrew Ng)关于人工智能未来的演讲。显然,人工智能将主导下个世纪的技术,在谷歌翻译(Google Translate)和YouTube推荐算法等日常应用程序中使用。人工智能还将成为未来创新的基础。
“现在,特斯拉(Tesla)需要一台超级计算机来为他们的自动驾驶汽车训练人工智能系统,”尤洋助理教授说,“但未来可能会更疯狂——我们可能会拥有属于自己的自动飞行机器。”
为了实现这些巨大技术成就,科学家们必须能够准确且高效地训练AI模型——尤洋助理教授在这一领域成就斐然。2017年,他的团队打破了ImageNet训练速度记录。两年后,他打破了BERT训练速度纪录。尤洋助理教授尤助理教的贡献使他在2021年登上《福布斯》(Forbes)30 Under 30(30岁以下最具潜力的30名杰出人士)亚洲排行榜,并获得新国大杰出青年教授席(Presidential Young Professorship)荣誉。
尤洋助理教授表示,训练神经网络类似于通过给孩子书本来教他们阅读——但我们给予人工智能用以学习的是数据,而不是书本。训练需要时间,而追求速度往往会导致最终结果不够准确。例如,如果我们想训练一个孩子总共读1,000本书,我们可以每天给他们10本书,如此持续100天;或者每天给他们100本书,如此持续10天。然而,当一个孩子有太多的书要读时,我们不能确定孩子正在学习正确的内容。换句话说,增加“批量”往往会降低准确性。
尤洋助理教授通过创造优化器,来帮助解决这一问题,该优化器使得计算机科学家可以在不降低性能的情况下快速训练神经网络。
让计算机更快、更准确
那什么是优化器呢?让我们以一个学习如何将英语翻译成法语的神经网络为例。假设你想翻译“I like basketball”(“我喜欢篮球”)这句话(尤洋助理教授说他喜欢在业余时间观看篮球比赛)。你可以把这句话中的每个词都翻译成法语中的对应词——“I”是“je”,“like”是“aimer”,“basketball”就是“basketball”。然而,会说法语的人都知道,“Je aimer basketball”这个短语在语法上是错误的。正确的法语翻译应该是“J’aime le basketball”。
硬编程(Hard-programming)所有语法和语境中小而独特的规则将耗时很久,而且还可能无法带来好的结果。所以,如果我们能通过某种方式把法语和英语教给电脑,那情况会有巨大改善。在神经网络中,科学家为人工智能系统提供了一个巨大的英文语句数据库,同时提供的还有这些英文语句在法语中对应的正确翻译。这些句子被转换成“向量”(Vector)——即一组计算机可以理解和处理的数字。然后,计算机通过数学函数(即方程)将英语向量映射到法语向量上。该功能是计算机将英语翻译成法语的一种方式。最后,“解码器”(Decoder)将把这些数字转换成单词和句子。
当然,这些函数往往十分复杂,它们在某些案例中可能表现出色,但在其他案例中则不如人意。因此,我们需要通过一种方法,使得这些函数的准确性达到最大,而这是通过“损失函数”(Loss Function)来衡量的——损失越少,结果越好。但计算机很难将损失降到最低。计算机如何判断当前损失是否为最小可能损失?又如何判断没有更好的函数、来提供更准确的翻译呢?该人工智能模型调整其功能的过程是由优化器决定的,其目的是将损失最小化,直到达到最小可能损失。
当遇到异常情况时,计算机需要调整自身所学,但这些调整不应过小或过大。一个好的优化器应该确保神经网络可以对自己学到的东西做出大小适当的调整。
尤洋助理教授设计了两种优化技术:LARS(Layer-wise Adaptive Rate Scaling)和LAMB(Layer-wise Adapative Moments optimisation for Batch training)。这两项技术使更大的批处理规模成为可能,同时还可以不降低其性能,从而推动了神经网络训练速度的提升。BERT(一款自然语言模型)的训练时间从3天减少到76分钟。类似的,ImageNet(用于图像处理)的训练时间从14天减少到14分钟。谷歌(Google)、微软(Microsoft)和英伟达(NVIDIA)的科学家在进一步提高BERT和ImageNet的训练速度时,使用了尤洋助理教授的技术。
打开分布式计算新领域
除打破训练时间纪录外,尤洋助理教授的工作还包括其他人工智能研究的广泛领域。他在新国大计算机学院管理着数个相关项目,其中他最喜欢的项目之一是开发一个特别的计算机系统,使为一台计算机编写的代码可以轻松地转移到分布式计算系统(Distributed Computing System)上。
通常而言,一台计算机不足以运行或训练一个人工智能模型。相反,科学家们必须将任务和数据集分散到多个服务器上,但让多台计算机有效地相互通信在目前仍非常困难。尤洋助理教授的工作使科学离克服分布式计算中的这些挑战又近了一步。
2021年8月,尤洋助理教授成立了一家初创公司——HPC-AI Tech,该公司使用基于云的技术,来加快中央处理单元(CPU)和图形处理单元(GPU)的速度,使两者都能跟上运行越来越快的AI模型。该公司已经吸引了470万美元的风险投资,投资来自谷歌中国前总裁李开复的创新工场(Sinovation Ventures)、荣登福布斯最佳创投人榜单的方爱之(Anna Fang)的真格基金(ZhenFund)和总部位于门洛帕克的蓝驰创投(BlueRun Ventures)。
目前,HPC-AI有10家客户,包括中国汽车制造商吉利(Geely),尤洋助理教授预计,他的技术未来会有很大的市场需求。因此,他设定了3年内客户数量达到1,000家的目标,此后每年增长50%。
尤洋助理教授从不满足于过去取得的成就,他展望未来,如此说道:“计算机的未来是分布式的——我很高兴能利用这一点,来最大化人工智能及其他更大领域的潜力。”
新加坡国立大学杰出青年教授席计划旨在支持在研究领域表现优异的年轻学者,帮助他们推进各自领域的前沿研究。
文章英文版原载于NUS News,原文标题为Teaching a computer to think like a human