应对OpenAI此前推出的众多新产品,谷歌周三推出下一代重要人工智能模型Gemini 2.0 Flash,可以原生生成图像和音频,同时支持文本生成。2.0 Flash还可以使用第三方应用程序和服务,使其能够访问谷歌搜索、执行代码等功能。
从周三起,2.0 Flash的实验版本将通过Gemini API和谷歌的AI开发平台(AI Studio和Vertex AI)提供。然而,音频和图像生成功能仅对“早期接入合作伙伴”开放,并计划在明年1月全面推出。
未来几个月内,谷歌表示将推出2.0 Flash的不同版本,用于Android Studio、Chrome DevTools、Firebase、Gemini Code Assist等产品。
Flash的升级
第一代Flash(1.5 Flash)只能生成文本,且并未设计用于特别高要求的工作负载。据谷歌称,新版本2.0 Flash模型更具多样性,部分原因是它能够调用工具(如搜索)并与外部API交互。
谷歌Gemini模型产品负责人Tulsee Doshi表示,
“我们知道,Flash因其在速度和性能上的良好平衡而备受开发者喜爱。在2.0 Flash中,它依然保持了速度的优势,但现在更加强大。”
谷歌声称,根据公司内部测试,2.0 Flash在某些基准测试中的运行速度是Gemini 1.5 Pro模型的两倍,并在编码和图像分析等领域“显著”改进。事实上,该公司表示,2.0 Flash凭借其更好的数学性能和“事实性”取代了1.5 Pro,成为Gemini的旗舰模型。
2.0 Flash可以生成并修改图像,同时支持文本生成。该模型还可以读取照片、视频以及音频录制内容,从而回答与这些内容相关的问题。
音频生成是2.0 Flash的另一个关键功能,Doshi将其描述为“可操控”和“可定制”。例如,该模型可以用八种针对不同口音和语言优化的声音来朗读文本。
不过,谷歌并未提供2.0 Flash生成的图像或音频样本,因此无法判断其输出质量与其他模型的比较。
谷歌表示,它正在使用其SynthID技术为2.0 Flash生成的所有音频和图像添加水印。在支持SynthID的软件和平台(即部分谷歌产品)上,该模型的输出将被标记为合成内容。
此举旨在缓解人们对滥用的担忧。事实上,“深度伪造”(deepfake)正成为日益严重的威胁。据身份验证服务Sumsub的数据,从2023年到2024年,全球检测到的深度伪造数量增长了四倍。
多模态API
2.0 Flash的生产力版本将于明年1月推出。但与此同时,谷歌推出了一个API,名为Multimodal Live API,以帮助开发者构建具有实时音频和视频流功能的应用程序。
通过Multimodal Live API,谷歌表示开发者可以创建具有来自摄像头或屏幕音频和视频输入的实时多模态应用程序。该API支持工具集成以完成任务,并能够处理“自然对话模式”,例如打断——与OpenAI的实时API功能类似。
Multimodal Live API已于周三上午全面开放使用。
AI代理操作网页
谷歌周三还发布了其首个能够在网页上执行操作的AI代理,这是由其DeepMind部门推出的研究模型,名为Project Mariner。该代理由Gemini驱动,能够接管用户的Chrome浏览器,移动屏幕上的光标,点击按钮,填写表单,从而像人类一样使用和浏览网站。
谷歌表示,从周三开始,这款AI代理将首先面向一小部分预先选定的测试者推出。
媒体报道,谷歌正在继续尝试新的方式,让Gemini能够读取、总结甚至使用网站。一位谷歌高管告诉媒体,这标志着一种“全新的用户体验范式转变”:用户不再直接与网站交互,而是通过生成式AI系统完成这些交互。
分析认为,这种转变可能会影响数百万家企业——从TechCrunch等出版商到沃尔玛等零售商——这些企业一直以来都依赖谷歌将真实用户引导到他们的网站。
在与科技媒体TechCrunch的演示中,谷歌实验室总监Jaclyn Konzelmann展示了Project Mariner的工作原理。
在Chrome浏览器中安装一个扩展程序后,浏览器右侧会弹出一个聊天窗口。用户可以指示代理完成诸如“根据这份清单在超市创建购物车”之类的任务。