有「电脑界的诺贝尔奖」 之称的图灵奖( Turing Award),对获奖者要求极高,且评奖程式也极严。每年图灵奖只会奖励一名电脑科学家,而 2019 年却是罕见的一年,三位科学家同时获颁此奖。
人工智慧3先驱获图灵奖
日前,美国电脑协会宣布电脑界诺贝尔奖的年度图灵奖(Turing Award)得主是:多伦多大学电脑科学教授辛顿(Geoffrey Hinton)、纽约大学教授勒昆( Yann LeCun)和蒙特娄大学教授班吉欧(Yoshua Bengio)。
3人共享100万美元奖金
辛顿(Geoffrey Hinton)、勒昆(Yann LeCun)和班吉欧(Yoshua Bengio)因对类神经网路的研究成就获奖,3 人将共享100 万美元奖金。三人均是深度学习之父,研究卷积神经网络的关键人物,成为今日电脑视觉和自然语言处理的基础。
类神经网路是一种复杂的数学系统,能透过分析庞大资料,学习抽象任务。譬如透过分析数千通电话,能学习辨识言语。
类神经网路,这项巨大构想重塑了科技打造的方式,加速脸部辨识服务、语音数位助理、仓库机器人和自驾车的发展。辛顿目前任职于谷歌(Google),勒昆在社群巨擘脸书,班吉欧则和 IBM 及微软(Microsoft)有合作。
人工智能近年突飞猛进,有赖深度学习演算法改革技术。电脑科学家如今能打造自行学习行为的技术,而非动手将行为编进系统中。
Yoshua Bengio 将神经网络结合序列机率模型,成为识别技术的基础。 1990 年代, AT&T 和 NCR 以此技术识别手写支票。后来将演算法伸延至语言识别,使用高维度字词嵌入概念表达字词意义,令机器翻译取得重大突破。他又与 Google 大脑科学家 Ian Goodfellow 共同开发生成对抗网路( generative adversarial networks ),为发展电脑视觉的重要一步,例如电脑自动生成拟真的图像。
Geoffrey Hinton 同时为 Google 副总裁,在 1986 年发表反向传播( Backpropagation )演算法,解决过去无法处理的神经网络问题,并成为现今神经网络的基础。在 2012 年,他与其学生一同改进卷积神经网路( CNN ),在 ImageNet 数据集竞赛中,有效将错误识别率减一半。
Yann LeCun 亦是 Facebook 首席人工智能科学家。在 1980 年代开发卷积神经网络,现在成为技术的基本原理,发展出电脑视觉、语音辨识、语音合成、图像合成和自然语言。他与 Facebook 另一研究员 Leon Bottou 共同开发反向传播演算法,其中构建模组原则( Building-Block Principle ),成为 TensorFlow 、 PyTorch 等深度学习框架的基础。