佛系程序员
首页
栏目
标签
归档
关于
友链
佛系程序员
首页
栏目
标签
归档
友链
关于
Claude Code的快速开始
学习笔记
网站开发
发布日期: 2025-08-01 14:06:08
喜欢量: 9 个
阅读次数:
46
有惊无险
好久不写程序,也不用IDE,今天想学习claude-code, 发现 进入命令行,node -v 报命令错误了, 竟然 找不到 node了, 我明明记得之前在这台windows电脑 写过程序,可以用的呀! 一顿乱点,在开始菜单中看到了,node.js目录,这确实是一个突破性的发现! 顺藤摸瓜,再查看,node.js的位置, 最后在 我的电脑 - 环境变量 - path, 添加: ``` C:\Users\Administrator\AppData\Roaming\nvm\ C:\Users\Administrator\AppData\Roaming\nvm\v18.16.0\ ``` 再重启命令行。总算是可以了。 下面正式开始: 1.欢迎使用 Claude Code! https://docs.anthropic.com/zh-CN/docs/claude-code/quickstart 2.命令行: node -v 确定是Node.js 18+以上版本, 为了节省C盘空间,我安装到```E:\yiyi\npm-global\``` 这里有几步: ``` npm config set prefix "E:\yiyi\npm-global" ``` 再环境变量添加上:```E:\yiyi\npm-global``` 最后再用命令完成安装: ```npm install -g @anthropic-ai/claude-code``` 3.使用 ```claude``` 出来: ``` Browser didn't open? Use the url below to sign in: https://claude.ai/oauth/authorize?code=true&client_id=9d1c250a-e61b-44d9-88ed-5944d1962f5e&response_type=code&redirect_uri=https%3A%2F%2Fconsole.anthropic.com%2Foauth%2Fcode%2Fcallback&scope=org%3Acreate_api_key+user%3Aprofile+user%3Ainference&code_challenge=JQ6Q-dTmS0dqaXlbFqyoHw3971c52COAE9wO4PUxHjQ&code_challenge_method=S256&state=uzPxt7TCT3jbEETIcMV5kAh0SV58RJ2fUucjkZ0kWzk ``` 还要注册授权啥的,先去干这个~ (估计要付费) 用google登录,选miaoyin登录, ``` Claude Max or Pro is required to connect to Claude Code ``` 确定后,出现,要会员选择,先选Free免费版。 最后就跳到了页面: https://claude.ai/newhttps://claude.ai/new 如果想在终端使用claude-code,但是要购买,每月17USD。 对我太贵了,算了,我还是想其他办法吧!在本地搭建一个编程助手。 二、下载与安装 Ollama 1. 下载 Windows 安装包 前往官网: 👉 https://ollama.com/download 下载 Windows 版安装程序(是 .exe文件) 2. 安装 Ollama 双击 .exe 文件安装程序 默认会安装到 C:\Program Files\Ollama 我们后面会移动文件到指定的目录 E:\yiyi\ollama,并修改路径 ✅ 三、移动安装目录到 E 盘 安装后,关闭 Ollama 的所有运行程序 手动将以下目录移动到你指定的地方: C:\Program Files\Ollama ➜ E:\yiyi\ollama ✅ 四、设置系统路径变量 将 Ollama 可执行文件所在路径加到系统环境变量中: 打开系统的 “环境变量”(Win+S → 搜索“环境变量”) 在 系统变量 ➜ 找到 Path ➜ 点击 “编辑” 添加一项: E:\yiyi\ollama 保存退出 ✅ 五、设置模型下载路径(模型不占 C 盘) Ollama 默认把模型下载到: C:\Users\<你的用户名>\.ollama 我们需要修改环境变量 OLLAMA_MODELS,让它下载到你想要的路径: 1. 新建一个系统环境变量: 变量名: OLLAMA_MODELS 变量值: E:\yiyi\OllamaModels 然后创建这个目录:E:\yiyi\OllamaModels ✅ 六、测试安装是否成功 打开 PowerShell 或 CMD,输入: ollama --version 若输出版本号如: ollama version 0.1.31 说明安装成功。 ✅ 七、下载需要的模型再运行, ollama pull qwen2.5-coder:7b 有4.7G ollama run qwen2.5-coder:7b 然后就可以对话了。 如果想让它一直作为服务运行,直接嵌入项目或前端调用Ollama的API接口:(这句没懂!) ``` curl http://localhost:11434/api/generate -d '{ "model": "qwen2.5-coder:7b", "prompt": "写一个Python程序,实现微信支付二维码生成" }' ``` ``` curl http://127.0.0.1:11434 curl http://localhost:11434/api/tags ``` 在Visual Studio Code 中,添加插件continue, 配置: ``` name: Local Assistant version: 1.0.0 schema: v1 models: - name: Qwen2.5 Coder (Local) provider: ollama model: qwen2.5-coder:7b context: - provider: code - provider: docs - provider: diff - provider: terminal - provider: problems - provider: folder - provider: codebase ```
文章作者:
yyii
文章链接:
https://amtb.info/show/MjM5
版权声明:
本博客所有文章除特別声明外,转载请注明来源
佛系程序员
!
分享:
搜索