(伦敦18日讯)有人工智能(AI)教父之称的诺贝尔物理学奖得主辛顿(Geoffrey Hinton)近期表示,他所协助开发的AI技术正变得越来越令人不安,但仍有太多人未能正视AI带来的风险,他并重申,AI有“10%到20%”的可能性导致人类灭绝。
人类错误使用主要风险
曾担任过Google副总裁的辛顿周一(16日)在Podcast节目说,AI的大多数风险主要来自人类的错误使用,这几乎涵盖所有短期风险;而另一方面,AI变得超级聪明,意识到自己不再需要人类时,也会带来的风险。
AI技术正迅速在全球蔓延,越来越多学生使用 ChatGPT,企业CEO也强制推动AI在工作场所的应用,且如库班(Mark Cuban)与黄仁勋(Jensen Huang)等科技领袖皆认为,AI将成为员工与企业成败的关键分水岭。
不过打造现今AI系统的工程师们,仍不完全理解其运作与发展模式,导致业界对AI未来发展意见分歧。
部份人预测AI将发动科技叛乱,取代人类;而另一些人则视此忧虑为科幻幻想。

AI容易让人出现“幻觉”
辛顿说:“我认为这两种看法都过于极端。”、“我经常说AI可能会毁灭人类的机率约在10% 至20%之间。这主要是凭直觉判断,因为我们仍在开发AI,且人类非常有创造力。希望只要有足够聪明的人投入足够资源和研究,我们终将能找到一种方法,让AI永远不会有害于我们。”
关于AI带来的短期风险,辛顿指出,AI容易让人出现“幻觉”,也就是那些毫无依据却看似真实的错误资讯,AI也会让人轻易伪造图像、影片与音讯。
他也指出,AI将把许多白领产业的基层工作给自动化,尽管部份科技领袖相信AI最终会创造出比取代更多的工作机会。
资金分散存放防范诈骗
在周一的Podcast节目中,辛顿提醒听众如何防范AI助长的诈骗:如将资金分散存放于多家银行,并定期将资料备份至外接硬碟。如此一来,若不幸遭遇诈骗,只会损失部份资金,且可迅速恢复电脑及手机的正常运作。
他也透露自己将资金分别存放于3家银行。