距离谷歌上次重大人工智能AI发布仅一周,该公司再次引起业界关注。
上周四,谷歌推出了 Google Gemini Ultra 1.0,声称它代表了其最好的人工智能语言模型。
然而,仅仅一周后,谷歌发布了 Gemini Pro 1.5,声称“与 1.0 Ultra 相当,但使用的计算量更少”。
这一系列的发布引发了人们对谷歌技术进步速度和产品战略的质疑。
首先,让我们仔细看看Gemini 1.5。
谷歌声称,这个新模型在“长上下文理解”方面取得了突破,可以处理多达 100 万个令牌(约 70 万个单词),远远超过了之前 32,000 个令牌的限制。
这一技术突破使得Gemini 1.5能够处理更长的文档和更长的对话,为语言模型的应用开辟了新的可能性。
但如此快的发布周期却引起了业界的广泛关注。
一方面,这可以看作是谷歌实验室人工智能技术进步速度的证明,表明该公司在人工智能领域的研发方面取得了重大进展。
另一方面,这也可能暗示谷歌产品推出时存在一些问题,例如繁文缛节阻碍了Ultra 1.0的推出,或者研究和营销之间的协调不力。
对于用户来说,Gemini 1.5的发布意味着他们现在可以通过谷歌的AI Studio和Vertex AI获得新模型的有限预览。
虽然该模型的上下文窗口目前只有 128,000 个令牌,但预计未来将扩展到 100 万个令牌。
此外,谷歌还发布了Gemini 1.5的技术报告,显示该模型在各种任务上均优于其他大型语言模型,例如OpenAI的GPT-4 Turbo。
不过,尽管Gemini 1.5亮点不少,但我们也应该谨慎对待。
首先,关于“长上下文理解”的主张仍然存在争议和主观。
其次,虽然 Gemini 1.5 能够处理多达 100 万个 token,但我们也应该警惕大型语言模型处理大型上下文时可能出现的混淆和解释问题。
最后,由于目前仅提供 Pro 1.5 版本预览,因此我们还需要等待该型号的更多数据和评测结果。
总体而言,谷歌Gemini 1.5的发布再次证明了该公司在人工智能领域的领先地位和创新能力。
但我们也应该关注可能出现的问题和挑战,比如产品上市的速度、技术突破的真实性、大语言模型的局限性等。
未来随着更多数据和评测结果的发布,我们将持续关注和评估这款新车型的表现和发展前景。