Clash下载电脑版是一款开源的跨平台代理工具,主要用于帮助用户科学上网。它支持多种代理协议,包括 Shadowsocks、V2Ray、Trojan 等,用户可以根据自己的需求选择合适的协议进行配置。同时支持Windows、macOS、Linux、Android和iOS等多种操作系统。
You signed in with An additional tab or window. Reload to refresh your session. You signed out in An additional tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.
配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。
配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。
特点: 原生 macOS 图形客户端,界面简洁美观,支持从菜单栏快速操作,适合大多数 macOS 用户。
You signed in with A different tab or window. Reload to refresh your session. You signed out in One more tab or window. Reload to refresh your session. You switched accounts on Yet another tab or window. Reload to refresh your session.
配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。
配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。
32b是qwen,70b是llama,llama没有对中文的支持,r1提供的蒸馏数据多在逻辑数学和代码,32b更好不意外
常用网站 - 相关下载 - 未名站刊 - 关于我们 - 联系我们 - 加入我们 - 帮助中心 - 意见反馈
You signed in Click here with A further tab or window. Reload to refresh your session. You signed out in A further tab or window. Reload to refresh your session. You switched accounts on A further tab or window. Reload to refresh your session.
ai进行下载安装,缺点是不能联网和构建本地知识库,优点是可以调用核显加速,操作非常简单,适合想要初体验的用户,甚至笔吧评测室的猪王都出了一个简单的教程。
鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。
节点国家与地区:香港、日本、新加坡、美国、台湾、加拿大、俄罗斯、韩国、印尼、印度、土耳其、巴西、德国、泰国、澳洲、英国、荷兰、菲律宾、马来西亚
配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。
配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。