在前两篇文章中,我们介绍了 Gemini CLI 的入门方法,以及如何用它提升开发效率。今天我们进入 第三篇 —— 文件与上下文处理。
这一部分的功能超级实用:你可以让 Gemini CLI 直接阅读本地文件、总结内容,甚至一次性处理整个项目目录。
Gemini CLI 支持通过 --file 参数加载本地文件,然后结合 prompt 给出结果。
gemini --file README.md -p "请用中文要点总结这份文档"
输出:
- 项目目标:提供 Web API 接口
- 技术栈:Node.js + Express
- 安装方式:npm install && npm start
- 已实现功能:用户注册、登录、数据查询
gemini --file app.py -p "请解释这段代码的主要功能和流程"
输出示例:
主要功能:构建一个 Flask API
流程:
1. 定义路由 /predict
2. 接收 POST 请求
3. 调用模型预测函数并返回结果
你可以一次传多个文件,Gemini CLI 会把它们合并成上下文。
gemini --file models.py --file utils.py -p "总结这两个文件的作用,并解释它们之间的关系"
配合 find 或 xargs,可以让 Gemini CLI 一次性读取整个目录。
find src -name "*.js" | xargs gemini -p "总结这个项目的技术栈和代码风格"
Gemini CLI 默认支持大上下文(最高可达百万 token,取决于模型版本)。这意味着你可以直接交给它一本论文、一份日志文件,甚至一份合同合集,它都能处理。
cat logs/*.log | gemini -p "请总结最近一周日志的主要问题,并给出统计"
输出示例:
- 主要问题:数据库连接超时(45次)
- 次要问题:API 请求参数缺失(12次)
- 提议:增加连接池监控;在前端加入参数校验
cat big_report.txt | gemini -p "请帮我写一份500字中文摘要"
gemini --file utils.py -p "为每个函数生成中文文档注释"gemini --file requirements.txt -p "总结依赖库的用途"
pdftotext report.pdf - | gemini -p "请用三点总结这份报告的重点"在这一篇中,我们学习了:
下一篇,我们会进入 第四篇:与外部工具结合 —— 看看 Gemini CLI 如何和 Git、curl、CI/CD 等工具无缝协作,把 AI 融入你的开发流水线。