#NVIDIA #AI #StabilityAI #Llama2
🟢 NVIDIA NGC - 你现在可以在英伟达免费体验 AIGC 产品
📄 英伟达毕竟是做 GPU 的,使用这些 AI 的流畅度确实比在 HuggingFace 提高不少,并且都可以免登录免费使用
🤖 产品列表
▫️NeVa:一种多模态视觉语言模型,能够理解输入的文本和图像
▫️SDXL:Stability AI 开源的知名 AI 绘画模型(介绍)
▫️CLIP:可以进行图片识别 & 物体检测的模型
▫️Llama 2:Meta 开源的大预言模型(介绍)
📮投稿 📢频道 💬群聊
▫️NeVa:一种多模态视觉语言模型,能够理解输入的文本和图像
▫️SDXL:Stability AI 开源的知名 AI 绘画模型(介绍)
▫️CLIP:可以进行图片识别 & 物体检测的模型
▫️Llama 2:Meta 开源的大预言模型(介绍)
📮投稿 📢频道 💬群聊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤2👏1
#AI #meta #开源 #编程 #Llama2 #大模型
🦙 Meta 开源编程大模型「Code Llama」,性能直逼 GPT-4
🌐 开源地址 | 体验1 | 体验2
📄 Code Llama 是从 Llama-2 基础模型微调而来,有基础版(Code Llama)、Python微调版(Code Llama-Python)、以及自然语言指令微调版(Code Llama-Instruct)共 3 个版本
3 个版本的模型尺寸分别有 7B、13B 和 34B,每个模型都被喂进了 5000 亿 token 的代码及代码相关数据中训练
Meta希望Code Llama能激发大众对于Llama 2的进一步开发,成为研究和商业产品创建新的创造性工具
⚡ Features
▫️支持10万 token 上下文(可以直接塞进整个项目)
▫️支持 Python、C++、Java、PHP、Typescript(Javascript)、SQL、C#和Bash等语言
▫️Python 34B 版本在HumanEval上得分为 53.7%,在 MBPP上得分为56.2%,超过了 GPT-3.5 的 48.1% 和 52.2%(评分)
▫️开源可商用
⬆️ 令人惊喜的是,Code Llama还有一个没有公布的「unnatural」版本,性能已经超过ChatGPT,逼近GPT-4
🌐 参考1 | 参考2 | 参考3
📮投稿 📢频道 💬群聊
3 个版本的模型尺寸分别有 7B、13B 和 34B,每个模型都被喂进了 5000 亿 token 的代码及代码相关数据中训练
Meta希望Code Llama能激发大众对于Llama 2的进一步开发,成为研究和商业产品创建新的创造性工具
▫️支持10万 token 上下文(可以直接塞进整个项目)
▫️支持 Python、C++、Java、PHP、Typescript(Javascript)、SQL、C#和Bash等语言
▫️Python 34B 版本在HumanEval上得分为 53.7%,在 MBPP上得分为56.2%,超过了 GPT-3.5 的 48.1% 和 52.2%(评分)
▫️开源可商用
🌐 参考1 | 参考2 | 参考3
📮投稿 📢频道 💬群聊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26❤13🤡3
#Llama2 #AI #开源 #大模型
🤖 Llama2 Chinese - 号称是目前最好的中文 Llama 大模型
🌐 体验地址
📄 根据介绍,「Llama2-Chinese-13B」是基于 200B 中文语料从头训练的,所以它从模型底层实现了 Llama2 中文能力的优化和提升
并且它的中文训练数据源非常广泛,比如经过筛选地互联网上公开的中文网络数据、中文维基百科、中文悟道开源的 200G 数据等等
👍 众所周知,Llama2 是目前最强的开源大模型,但是中文预训练数据的比例仅占 0.13% ,所以对中文支持比较不友好。幸运的是因为其是开源的,所以「Llama2-Chinese-13B」应运而生
🆚 如有兴趣,你可以自行对比原版与中文版的差异
📑 相关阅读
Meta开源「次世代」大模型 Llama 2,免费可商用
📮投稿 📢频道 💬群聊🔎 索引
并且它的中文训练数据源非常广泛,比如经过筛选地互联网上公开的中文网络数据、中文维基百科、中文悟道开源的 200G 数据等等
Meta开源「次世代」大模型 Llama 2,免费可商用
📮投稿 📢频道 💬群聊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🤡7😁3❤2