Perplexity推出的新版Sonar搜索模型,包括其训练来源、运行的基础设施、在Token解码速度、回答质量方面的表现,以及它的两大优势,还会提及它目前的开放情况。
据IT之家2月12日消息,在当地时间的昨日,专注于AI搜索引擎的企业Perplexity对外宣布推出他们所开发的新版Sonar搜索模型。这个新模型是基于Llama 3.3 70B进一步训练得到的,并且针对搜索应用进行了精心的优化,运行在Cerebras推理基础设施之上。
Perplexity宣称,新版Sonar在Token解码速度方面相当惊人,能够达到每秒1200个。这一速度是Gemini 2.0 Flash的8.5倍还多,这样的速度使得它几乎可以在瞬间就生成答案。
从回答质量的角度来看,Perplexity表示,他们的用户对新版Sonar模型表现的评价非常高。其评价明显超过了GPT - 4o mini和Claude 3.5 Haiku,甚至比前沿模型Claude 3.5 Sonnet还要高,与GPT - 4o相比也差异不大。
新版Sonar搜索模型具有两大显著优势。其一是它在回答时拥有更出色的事实性,能够准确地依据事实进行回答;其二是它可以更加熟练地运用markdown格式,从而为用户提供可读性更好的回答文本。
目前,新版Sonar已经向Perplexity Pro订阅用户开放使用,而且还会以API的形式来提供相关服务。
本文总结了Perplexity推出的新版Sonar搜索模型的基本情况,包括模型的来源、性能优势以及开放情况等,展示了其在AI搜索领域的潜力。
原创文章,作者:东海凝丝,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/14919.html