2 月 6 日消息,谷歌公司昨日(2 月 5 日)发布博文,邀请所有 Gemini 应用用户,访问最新 Gemini 2.0 Flash 应用模型,并放开 2.0 Flash Thinking 推理实验模型。
2.0 Flash:全新更新,全面开放
2.0 Flash 模型最初于 2024 年 I/O 大会上亮相,凭借其低延迟和高性能,迅速成为开发者社区中的热门选择。该模型适用于大规模、高频率的任务,能够处理多达 100 万 tokens 的上下文窗口,展现出强大的多模态推理能力。
Gemini 2.0 Flash 模型可以和 YouTube,Google Search 和 Google Maps 在内的应用程序进行交互,在多个应用场景下帮助用户发掘和拓展知识。
Gemini 2.0 Flash Thinking 模型
Gemini 2.0 Flash Thinking 模型基于 2.0 Flash 的速度和性能,这一模型经过训练,能够将提示分解为一系列步骤,从而增强其推理能力并提供更优质的响应。
2.0 Flash Thinking Experimental 模型展示了其思考过程,用户可以看到其为何以某种方式回应、其假设是什么,并追踪模型的推理逻辑。这种透明性使用户能更深入理解模型的决策过程。
Gemini 还推出了与 YouTube、Search 和 Google Maps 等应用互动的 2.0 Flash Thinking 版本。这些连接的应用已使 Gemini 成为独特的 AI 助手,未来将探索如何将新的推理能力与用户应用结合,帮助用户完成更多任务。
2.0 Pro 实验版:最佳编程性能与复杂提示词处理
谷歌还推出了 Gemini 2.0 Pro 实验版本,官方声称该模型擅长编程,且能回答复杂提示。该模型拥有 200 万 tokens 的上下文窗口,能够全面分析和理解海量信息,并支持调用 Google 搜索和代码执行等工具。
开发者现可在 Google AI Studio 和 Vertex AI 中体验这一实验版模型,Gemini 高级用户也可在桌面和移动端访问。IT之家附上相关性能对比如下:
2.0 Flash-Lite:最具成本效益的模型
Google AI Studio 还推出了 Gemini 2.0 Flash-Lite 模型,官方声称其是迄今为止最具成本效益的模型。旨在保持低成本和快速响应的同时,提供比 1.5 Flash 更高的质量。
该模型同样支持 100 万 tokens 的上下文窗口和多模态输入,例如,它可以在 Google AI Studio 的付费订阅中为 4 万张独特照片生成一行相关描述,成本低于 1 美元。