谷歌发布Gemini 1.5
Google最近发布了下一代AI模型——Gemini 1.5。由Sundar Pichai和DeepMind的CEO Demis Hassabis共同介绍,这一新模型在性能上取得了显著的提升,尤其是在长文本理解方面的突破,能够处理的信息量大大增加,最高达到100万个token,是迄今为止任何大规模基础模型中最长的上下文窗口。
Gemini 1.5的高效架构采用了混合专家(Mixture-of-Experts, MoE)技术,使得模型训练和服务更加高效。此外,它还引入了一个长达128,000个token的标准上下文窗口,而特定的开发者和企业客户在AI Studio和Vertex AI中可以尝试高达100万个token的上下文窗口。这种能力的增强,使得Gemini 1.5 Pro能够在包括文本、代码、图像、音频和视频在内的各种评测中,相比前代模型在87%的基准测试上表现更优。
此外,Gemini 1.5 Pro还通过一系列的机器学习创新,大大增强了模型对信息的处理能力,能够同时处理和分析大量数据,如一小时的视频、11小时的音频、超过30,000行代码的代码库或超过700,000字的文本。这一特性使得Gemini 1.5 Pro在处理大量信息时,能够更加精确地分析、分类和总结内容,从而为开发者和企业客户提供更加有用的模型和应用程序。
为了确保模型的安全性和道德标准,Gemini 1.5 Pro经过了广泛的伦理和安全测试,并将这些研究成果整合到其治理过程、模型开发和评估中,以持续提高AI系统的质量。Google承诺,将负责任地将每一代Gemini模型带给全球数十亿人、开发者和企业,并通过AI Studio和Vertex AI向开发者和企业客户提供1.5 Pro的有限预览。