感谢IT之家的网友线索投递!据Meta公司昨日(9月25日)发布的博文,该公司正式推出了全新的Llama 3.2 AI模型。
这一模型以其开放性、可定制性为特点,为开发者提供了实现边缘人工智能和视觉革命的强大工具。
Llama 3.2的多模态视觉和轻量级模型代表了Meta在大型语言模型(LLMs)方面的最新进展,提供了更强大的功能和更广泛的适用性。
Llama 3.2 AI模型共有四个版本,分别为Llama 3.2 1B、3B、11B和90B模型。
这些模型支持多种使用场景,包括边缘和移动设备的中小型视觉LLMs以及轻量级纯文本模型。
其中,Llama 3.2 1B和3B模型特别支持128K标记的上下文长度,在边缘本地运行的设备用例中表现突出,如摘要、指令跟踪和重写任务等。
值得一提的是,这些模型在发布的第一天就支持高通和联发科硬件,并特别针对Arm处理器进行了优化。
Llama 3.2的视觉模型,特别是11B和90B版本,可直接替代相应的文本模型,并在图像理解任务方面展现出卓越性能,优于一些闭源模型如Claude 3Haiku等。
这意味着Llama 3.2不仅为文本处理提供强大支持,还能在处理图像数据方面表现出色,从而推动了边缘人工智能和视觉革命的进程。
与其他开源多模态模型相比,Llama 3.2的突出优势在于其预训练模型和对齐模型都可以使用torchtune进行微调,以适应自定义应用的需求。
torchchat的本地部署功能进一步简化了模型的部署过程。
这些特性使得开发者能够更灵活地运用Llama 3.2 AI模型,满足各种应用场景的需求。
为了简化开发者在不同环境中使用Llama模型的方式,Meta将分享首批LlamaStack官方发行版。
这一举措大大方便了开发者在单节点、内部部署、云和设备等不同环境中使用Llama模型。
通过实现检索增强生成(RAG)和工具支持型应用的交钥匙部署,LlamaStack官方发行版进一步降低了使用门槛,并集成了安全性,为开发者提供了全面的支持。
Meta在与一系列合作伙伴如AWS、Databricks、Dell Technologies、Fireworks、Infosys和TogetherAI等的紧密合作中,共同为其下游企业客户构建LlamaStack发行版。
这种合作模式有助于推动Llama 3.2 AI模型在各个领域的应用,从而加速人工智能的普及和发展。
设备分发将通过PyTorchExecuTorch进行,而单节点分发则通过Ollama进行。
这一机制确保了Llama 3.2 AI模型的广泛分发和集成,使得更多开发者能够轻松获取并使用这一强大的工具。
Llama 3.2 AI模型的推出为开发者提供了一个开放、可定制的平台,推动了边缘人工智能和视觉革命的进步。
通过其强大的功能和广泛的适用性,Llama 3.2 AI模型将在各个领域中发挥重要作用,为开发者带来无限可能。
本文地址: https://www.gosl.cn/zxzxwz/58397d6a96e2dabc3b3c.html
上一篇:高通全球化策略下的市场拓展之路...