引言
        由Technology Innovation Institute(T四训练的开源大模型Falcon 180B登陆Hugging Face!Falcon180B为开源大模型树立了全新的标杆。作为当前最大的开源大模型,有l80B参数并且是在在3.5万亿token的TII RefinedWeb数据集上进行训练,这也是目前开源模型里最长的单波段预训练。
        你可以在Hugging Face Hub中查阅其基础模型、聊天模型,以及其Space应用。
从表现能力上来看,Falcon180B在自然语言任务上的表现十分优秀。它在开源模型排行榜(预训练)上名列前茅,并可与PLM-2等专有模型相差无几。虽然目前还很难给出明确的排名,但它被认为与 PalM2 Large不相上下,这也使得它成为目前公并的能力最强的LLM之一。
   

demo:https://huggingface.co/spaces/wffcyrus/falcon-180b-demo

请体验一下falcon 180b 大语言模型的感觉-LMLPHP

09-13 05:42