|
Google Deepmind杰出科学家纪怀新。(中评社 俞敦平摄) |
中评社台北1月19日电(记者 俞敦平)Google Deepmind杰出科学家纪怀新18日于天下经济论坛中,在QA时间回应观众问题时,分享了他对未来AI语言模型在实务应用上最有分歧的一个议题,关于AI on Edge的看法。他认为在2024年小型语言模型也许在某些场景下,已经够我们使用了。这样的话,Edge设备的重要性就会提高,因为它们的运算能力如果够的话,我们就不需要把所有的运算能力都放到云端伺服器上。他提出了一愿景,认为有朝一日人们可以把整个网路的内容放到口袋中。
对于现场的提问,AI on Edge是一个近期台湾业界关注的议题。但是我们在使用ChatGPT或BARD等语言模型时,发现它们的性能还不够好,常常出错。而Google Deepmind也表示,他们的模型会越来越大,例如即将推出的Gemini Ultra。这是因为只有更大的模型,才能够提高精确度,减少错误,提升使用体验。但是,同时我们也听到,Google Deepmind想要将这些AI模型放到Edge端,也就是我们的手机或笔电上。这样一来,模型就必须大幅缩小,变成小语言模型。我们知道,小语言模型比大语言模型更容易出错。那么,为什么我们要用小语言模型呢?为什么我们要用Edge端,而不是云端呢?尤其是Google的Pixel手机,现在也要把Gemini Nano这个小语言模型放进去了。这样的手机,真的好用吗?
|