作者:Google DeepMind 首席执行官 Demis Hassabis 和 Google DeepMind 首席技术官 Koray Kavukcuoglu 代表 Gemini 团队
过去一年,我们在人工智能领域取得了令人难以置信的进步。今天,我们发布了 Gemini 2.0 Flash 的实验版本,这是 Gemini 2.0 型号系列中的第一个型号。 Gemini 2.0 闪存是一款旗舰型号,采用尖端技术来大规模提供低延迟和增强的性能。
我们还介绍了由 Gemini 2.0 的原生多模式功能支持的最新原型设计和代理研究。
我们的目标是安全、快速地为您提供模型。自上个月以来,我们一直在分享 Gemini 2.0 的早期实验版本,并收到了开发人员的良好反馈。
Gemini 2.0 Flash 目前可通过Google AI Studio和Vertex AI的 Gemini API 作为实验模型供开发者使用,所有开发者均可使用多模式输入和文本输出。早期访问合作伙伴还可以使用文本转语音和本机图像生成功能。将于明年1月全面上市,型号尺寸也会有所扩大。
我们还发布了一个新的 Multimodal Live API,具有实时音频、视频流输入,并且能够组合多种工具来帮助开发人员构建动态的交互式应用程序。要了解有关 2.0 Flash 和 Multimodal Live API 的更多信息,请访问我们的开发者博客。
通过Gemini AI助手应用程序使用Gemini 2.0
同样从今天开始,世界各地的Gemini用户将能够通过从桌面和移动设备的下拉菜单中选择模型来访问聊天优化的 2.0 实验模型。该版本也将很快在 Gemini 移动应用程序上提供。这一新模式让用户体验到更加便捷的Gemini助手。
Gemini 2.0 将于明年初出现在更多 Google 产品中。
通过 Gemini 2.0 实现代理体验
Gemini 2.0 Flash 具有原生用户界面交互、多模式推理、长上下文理解、复杂的指令跟踪和规划、复杂的函数调用、原生工具和改进的延迟。通过共同努力,我们将创造新的代理体验。
AI代理的实际应用是一个具有巨大潜力的研究领域。我们正在这个新领域工作,开发各种原型来帮助人们完成任务。例如,Astra 项目的更新,一个探索通用 AI 助手未来可能性的研究原型,一个探索从浏览器开始的人机交互未来的新 Project Mariner,以及一个帮助开发人员的 AI 代码代理。
尽管仍处于开发的早期阶段,但我们希望了解一些测试人员如何利用这些新功能,以及我们可以吸取哪些经验教训,以使它们在未来的产品中得到更广泛的应用。