https://medlexo.is-an.app/cn.php
🎞 魔力玄 - 一款永久免费的视频无损处理工具
📄 魔力玄支持 MP4 和 M4A 合并、任何格式转 mp4、m3u8 下载、无损压缩等实用功能
界面有些许简陋,但是体验一番之后处理结果令人满意
📮投稿 📢频道 💬群聊🔎 索引
界面有些许简陋,但是体验一番之后处理结果令人满意
📮投稿 📢频道 💬群聊
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#教程 #音乐
🎵 迁移网易云/QQ音乐歌单至 Apple/Youtube/Spotify Music
2️⃣ 打开 music.unmeta.cn 填入歌单链接并复制结果
3️⃣ 打开 TunemyMusic 点击「任意文本」并粘贴上面结果
5️⃣ 最后选择需要迁移的目标平台
📮投稿 📢频道 💬群聊🔎 索引
📮投稿 📢频道 💬群聊
Please open Telegram to view this post
VIEW IN TELEGRAM
部分已经失效,自测
▫️12ft.io - 一个去除付费内容的工具
▫️Medium Parser - 一个用于查看 Medium 付费文章的浏览器插件
▫️Ladder - 一个用于绕过各类付费文章的阅读权限的工具
▫️Read Medium - 一个可以免费阅读 Medium 文章的网站
▫️Bypass Paywalls Clean - 一个绕过阅读付费墙的插件
▫️13FT - 一个用于绕过「付费墙」的插件
▫️PaywallBuster - 一个免费绕过付费墙的在线工具
▫️Marreta - 一个开源可绕过付费墙的在线工具
▫️smry.ai - 一款可以获取摘要并突破付费墙的工具
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#开源 #大模型 #AI
🤖 Mistral AI 发布开源大模型「8x7B」
体验地址(点击⚙ 切换)
📄 「8x7B」是首个开源的 MoE 大模型,共有 560 亿个参数,支持 32k 上下文窗口。支持英语、法语、德语、西班牙语和意大利语,但是实测输入中文也会回答
📈 在 7 个基准测试中,「8x7B」超过了 Llama2 70B,并且达到或超过 GPT-3.5
🤖️ Mistral AI 被外界称作欧洲版 OpenAI ,并且「8x7B」使用了与 GPT-4 非常相似但规模较小的架构,所以未来非常有机会与 OpenAI 分庭抗礼
😄 有趣的是,Mistral AI 团队是通过一条磁力链接发布该模型
❓ 什么是 MoE 大模型
混合专家(MoE)是一种在大型语言模型(LLMs)中用于提高效率和准确性的技术。它通过将复杂任务分解为更小、更易管理的子任务来工作,每个子任务由一个「专门的小型模型」或「专家」处理
📮投稿 📢频道 💬群聊🔎 索引
体验地址(点击
混合专家(MoE)是一种在大型语言模型(LLMs)中用于提高效率和准确性的技术。它通过将复杂任务分解为更小、更易管理的子任务来工作,每个子任务由一个「专门的小型模型」或「专家」处理
📮投稿 📢频道 💬群聊
Please open Telegram to view this post
VIEW IN TELEGRAM