Hermes 在安装时会将一个大型内置技能库复制到 ~/.hermes/skills/ 目录下。本页面列出了存储在代码仓库 skills/ 目录下的内置技能。
apple
适用于 Apple/macOS 系统的技能 —— iMessage、提醒事项、备忘录、查找我的设备(FindMy)以及 macOS 自动化。这些技能仅在 macOS 系统上加载。
| 技能 | 描述 | 路径 |
|---|
apple-notes | 通过 macOS 上的 memo CLI 管理 Apple 备忘录(创建、查看、搜索、编辑)。 | apple/apple-notes |
apple-reminders | 通过 remindctl CLI 管理 Apple 提醒事项(列出、添加、完成、删除)。 | apple/apple-reminders |
findmy | 通过 macOS 上的 FindMy.app 使用 AppleScript 和屏幕捕获功能追踪 Apple 设备和 AirTags。 | apple/findmy |
imessage | 通过 macOS 上的 imsg CLI 发送和接收 iMessage/SMS。 | apple/imessage |
autonomous-ai-agents
用于启动和编排自主 AI 编码代理及多代理工作流的技能 —— 运行独立的代理进程、委派任务以及协调并行工作流。
| 技能 | 描述 | 路径 |
|---|
claude-code | 将编码任务委派给 Claude Code(Anthropic 的 CLI 代理)。适用于构建功能、重构代码、代码审查以及迭代式开发。需要已安装 claude CLI。 | autonomous-ai-agents/claude-code |
codex | 将编码任务委派给 OpenAI Codex CLI 代理。适用于构建功能、重构代码、代码审查以及批量修复问题。需要已安装 codex CLI 并配置 git 仓库。 | autonomous-ai-agents/codex |
hermes-agent-spawning | 启动额外的 Hermes Agent 实例作为自主子进程,用于独立的长时间运行任务。支持非交互式单次运行模式(-q)和交互式 PTY 模式,用于多轮协作。与 delegate_task 不同,此技能会运行一个完整的独立 hermes 进程。 | autonomous-ai-agents/hermes-agent |
opencode | 将编码任务委派给 OpenCode CLI 代理,用于功能实现、代码重构、代码审查以及长时间运行的自主会话。需要已安装并认证 opencode CLI。 | autonomous-ai-agents/opencode |
data-science
用于数据科学工作流的技能 —— 交互式探索、Jupyter 笔记本、数据分析与可视化。
| 技能 | 描述 | 路径 |
|---|
jupyter-live-kernel | 使用实时 Jupyter 内核进行有状态、迭代式的 Python 执行,通过 hamelnb 实现。当任务涉及探索、迭代或检查中间结果时,请加载此技能。 | data-science/jupyter-live-kernel |
creative
创意内容生成 —— ASCII 艺术、手绘风格图表以及视觉设计工具。
| 技能 | 描述 | 路径 |
|---|
ascii-art | 使用 pyfiglet(571 种字体)、cowsay、boxes、toilet、图像转 ASCII、远程 API(asciified、ascii.co.uk)以及 LLM 降级方案生成 ASCII 艺术。无需 API 密钥。 | creative/ascii-art |
ascii-video | “ASCII 艺术视频的生产流水线 —— 支持任意格式。将视频/音频/图像/生成输入转换为彩色 ASCII 字符视频输出(MP4、GIF、图像序列)。涵盖:视频转 ASCII 转换、音频响应式音乐可视化、生成式 ASCII 艺术动画、混合……” | creative/ascii-video |
excalidraw | 使用 Excalidraw JSON 格式创建手绘风格图表。生成 .excalidraw 文件,用于架构图、流程图、时序图、概念图等。文件可在 excalidraw.com 打开,或上传以生成可分享链接。 | creative/excalidraw |
p5js | 用于交互式和生成式视觉艺术的生产流水线,基于 p5.js。创建草图,通过无头浏览器渲染为图像/视频,并提供实时预览。支持画布动画、数据可视化和创意编程实验。 | creative/p5js |
devops
DevOps 与基础设施自动化技能。
| 技能 | 描述 | 路径 |
|---|
webhook-subscriptions | 创建和管理 Webhook 订阅,用于事件驱动的代理激活。外部服务(GitHub、Stripe、CI/CD、IoT)通过 POST 事件来触发代理运行。需要启用 Webhook 平台。 | devops/webhook-subscriptions |
dogfood
| 技能 | 描述 | 路径 |
|---|
dogfood | 对 Web 应用程序进行系统性探索式 QA 测试 —— 发现缺陷、捕获证据并生成结构化报告。 | dogfood/dogfood |
hermes-agent-setup | 帮助用户配置 Hermes Agent —— CLI 使用、设置向导、模型/提供方选择、工具、技能、语音/STT/TTS、网关以及故障排除。 | dogfood/hermes-agent-setup |
email
用于从终端发送、接收、搜索和管理电子邮件的技能。
| 技能 | 描述 | 路径 |
|---|
himalaya | 通过 IMAP/SMTP 管理电子邮件的 CLI 工具。使用 himalaya 列出、阅读、撰写、回复、转发、搜索和整理电子邮件。支持多个账户,并可通过 MML(MIME 元语言)进行消息编写。 | email/himalaya |
gaming
用于设置、配置和管理游戏服务器、模组包及游戏相关基础设施的技能。
| 技能 | 描述 | 路径 |
|---|
minecraft-modpack-server | 从 CurseForge/Modrinth 服务器包的 zip 文件中设置模组化 Minecraft 服务器。涵盖 NeoForge/Forge 安装、Java 版本、JVM 调优、防火墙配置、局域网设置、备份以及启动脚本。 | gaming/minecraft-modpack-server |
pokemon-player | 通过无头模拟器自主运行宝可梦游戏。启动游戏服务器,从内存中读取结构化游戏状态,做出战略决策,并发送按钮输入——全部通过终端完成。 | gaming/pokemon-player |
github
用于通过 gh CLI 和 git 在终端中管理仓库、拉取请求、代码审查、问题以及 CI/CD 流水线的 GitHub 工作流技能。
| 技能 | 描述 | 路径 |
|---|
codebase-inspection | 使用 pygount 检查和分析代码库,统计行数(LOC)、语言分布以及代码与注释的比例。当被要求检查代码行数、仓库大小、语言构成或代码库统计信息时使用。 | github/codebase-inspection |
github-auth | 使用 git(普遍可用)或 gh CLI 为代理设置 GitHub 身份验证。涵盖 HTTPS 令牌、SSH 密钥、凭证助手以及 gh auth —— 并具备自动检测流程以选择合适的方法。 | github/github-auth |
github-code-review | 通过分析 git diff 来审查代码变更,对 PR 提交内联评论,并进行彻底的预推送审查。支持 gh CLI,或回退至 git + GitHub REST API 通过 curl 实现。 | github/github-code-review |
github-issues | 创建、管理、分类和关闭 GitHub 问题。搜索现有问题,添加标签,分配人员,并链接到 PR。支持 gh CLI,或回退至 git + GitHub REST API 通过 curl 实现。 | github/github-issues |
github-pr-workflow | 完整的拉取请求生命周期——创建分支、提交更改、打开 PR、监控 CI 状态、自动修复失败并合并。支持 gh CLI,或回退至 git + GitHub REST API 通过 curl 实现。 | github/github-pr-workflow |
github-repo-management | 克隆、创建、fork、配置和管理 GitHub 仓库。管理远程仓库、密钥、发布版本和工作流。支持 gh CLI,或回退至 git + GitHub REST API 通过 curl 实现。 | github/github-repo-management |
inference-sh
通过 inference.sh 云平台执行 AI 应用的技能。
| 技能 | 描述 | 路径 |
|---|
inference-sh-cli | 通过 inference.sh CLI(infsh)运行 150+ 个 AI 应用——包括图像生成、视频创作、大语言模型(LLM)、搜索、3D 内容、社交自动化等。 | inference-sh/cli |
leisure
| 技能 | 描述 | 路径 |
|---|
find-nearby | 使用 OpenStreetMap 查找附近地点(餐厅、咖啡馆、酒吧、药房等)。支持坐标、地址、城市、邮编或 Telegram 位置标记。无需 API 密钥。 | leisure/find-nearby |
mcp
用于与 MCP(模型上下文协议)服务器、工具和集成协作的技能。包括内置的原生 MCP 客户端(在 config.yaml 中配置服务器以实现自动工具发现)以及 mcporter CLI 桥接工具,用于临时服务器交互。
| 技能 | 描述 | 路径 |
|---|
mcporter | 使用 mcporter CLI 直接列出、配置、认证并调用 MCP 服务器/工具(支持 HTTP 或 stdio),包括临时服务器、配置编辑以及 CLI/类型生成。 | mcp/mcporter |
native-mcp | 内置的 MCP(模型上下文协议)客户端,可连接外部 MCP 服务器,发现其工具,并将其注册为原生 Hermes Agent 工具。支持 stdio 和 HTTP 传输,具备自动重连、安全过滤和零配置工具注入功能。 | mcp/native-mcp |
用于处理媒体内容的技能——包括 YouTube 字幕、GIF 搜索、音乐生成和音频可视化。
| 技能 | 描述 | 路径 |
|---|
gif-search | 使用 curl 从 Tenor 搜索并下载 GIF。除 curl 和 jq 外无其他依赖。适用于查找反应 GIF、创建视觉内容以及在聊天中发送 GIF。 | media/gif-search |
heartmula | 设置并运行 HeartMuLa,开源音乐生成模型系列(类似 Suno)。通过歌词 + 标签生成完整歌曲,支持多语言。 | media/heartmula |
songsee | 通过 CLI 从音频文件生成频谱图和音频特征可视化(如梅尔频谱、音高、MFCC、节拍图等)。适用于音频分析、音乐制作调试和可视化文档。 | media/songsee |
youtube-content | 获取 YouTube 视频字幕,并将其转换为结构化内容(章节、摘要、话题线、博客文章等)。 | media/youtube-content |
mlops
通用机器学习运维工具——模型库管理、数据集操作和工作流编排。
| 技能 | 描述 | 路径 |
|---|
huggingface-hub | Hugging Face Hub CLI(hf)——搜索、下载和上传模型与数据集,管理仓库,部署推理端点。 | mlops/huggingface-hub |
mlops/cloud
GPU 云服务提供商和用于机器学习工作负载的无服务器计算平台。
| 技能 | 描述 | 路径 |
|---|
lambda-labs-gpu-cloud | 用于机器学习训练和推理的预留及按需 GPU 云实例。当您需要专用 GPU 实例、简单的 SSH 访问、持久化文件系统,或用于大规模训练的高性能多节点集群时使用。 | mlops/cloud/lambda-labs |
modal-serverless-gpu | 用于运行机器学习工作负载的无服务器 GPU 云平台。当您需要按需访问 GPU 而无需管理基础设施、将机器学习模型部署为 API,或运行具有自动扩展功能的批处理作业时使用。 | mlops/cloud/modal |
mlops/evaluation
模型评估基准、实验追踪、数据整理、分词器和可解释性工具。
| 技能 | 描述 | 路径 |
|---|
evaluating-llms-harness | 在 60 多个学术基准(MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag)上评估大语言模型。用于模型质量基准测试、模型对比、报告学术结果或追踪训练进度。EleutherAI、HuggingFace 和主要研究实验室广泛采用的行业标准。支持…… | mlops/evaluation/lm-evaluation-harness |
huggingface-tokenizers | 针对研究和生产优化的快速分词器。基于 Rust 实现,可在 <20 秒内分词 1GB 数据。支持 BPE、WordPiece 和 Unigram 算法。可训练自定义词汇表,追踪对齐关系,处理填充/截断。与 transformers 无缝集成。用于…… | mlops/evaluation/huggingface-tokenizers |
nemo-curator | 用于大语言模型训练的 GPU 加速数据整理工具。支持文本/图像/视频/音频。具备模糊去重(快 16 倍)、质量过滤(30+ 启发式规则)、语义去重、PII 信息脱敏、NSFW 检测功能。通过 RAPIDS 在 GPU 上横向扩展。用于准备高质量训练数据…… | mlops/evaluation/nemo-curator |
sparse-autoencoder-training | 提供使用 SAELens 训练和分析稀疏自编码器(SAE)的指导,将神经网络激活分解为可解释特征。用于发现可解释特征、分析超叠加现象,或研究语言模型中的单义表示…… | mlops/evaluation/saelens |
weights-and-biases | 使用自动日志记录追踪机器学习实验,实时可视化训练过程,通过实验扫描优化超参数,并使用 W&B 管理模型注册表——协作式 MLOps 平台 | mlops/evaluation/weights-and-biases |
mlops/inference
模型服务、量化(GGUF/GPTQ)、结构化输出、推理优化和模型手术工具,用于部署和运行大语言模型。
| 技能 | 描述 | 路径 |
|---|
gguf-quantization | GGUF 格式和 llama.cpp 量化,用于高效 CPU/GPU 推理。当您需要在消费级硬件、Apple Silicon 上部署模型,或需要 2-8 位灵活量化且无需 GPU 要求时使用。 | mlops/inference/gguf |
guidance | 使用正则表达式和语法控制大语言模型输出,确保生成有效的 JSON/XML/代码,强制结构化格式,并使用 Guidance 构建多步骤工作流——微软研究院的约束生成框架 | mlops/inference/guidance |
instructor | 使用 Pydantic 验证从大语言模型响应中提取结构化数据,自动重试失败的提取,以类型安全方式解析复杂 JSON,并流式传输部分结果——经过实战检验的结构化输出库 | mlops/inference/instructor |
llama-cpp | 在 CPU、Apple Silicon 和消费级 GPU 上运行大语言模型推理,无需 NVIDIA 硬件。用于边缘部署、M1/M2/M3 Mac 电脑、AMD/Intel GPU,或当 CUDA 不可用时。支持 GGUF 量化(1.5-8 位),减少内存占用,相比 PyTorch 在 CPU 上提速 4-10 倍。 | mlops/inference/llama-cpp |
obliteratus | 使用 OBLITERATUS 技术从开源权重大语言模型中移除拒绝行为——基于机制可解释性技术(均值差异、SVD、白化 SVD、LEACE、SAE 分解等)移除防护机制,同时保留推理能力。提供 9 种 CLI 方法,28 个分析模块,116 个模型预设…… | mlops/inference/obliteratus |
outlines | 在生成过程中保证有效的 JSON/XML/代码结构,使用 Pydantic 模型实现类型安全输出,支持本地模型(Transformers、vLLM),并通过 Outlines——dottxt.ai 的结构化生成库最大化推理速度 | mlops/inference/outlines |
serving-llms-vllm | 使用 vLLM 的 PagedAttention 和连续批处理实现高吞吐量大语言模型服务。用于部署生产级大语言模型 API、优化推理延迟/吞吐量,或在 GPU 内存有限的情况下服务模型。支持 OpenAI 兼容端点、量化(GPTQ/AWQ/FP8)、连续批处理、动态批处理等功能…… | mlops/inference/vllm |
tensorrt-llm | 使用 NVIDIA TensorRT 优化大语言模型推理,实现最高吞吐量和最低延迟。用于在 NVIDIA GPU(A100/H100)上进行生产部署,当您需要比 PyTorch 快 10-100 倍的推理性能,或需要支持量化(FP8/INT4)、飞行中批处理和多模型并发服务时使用…… | mlops/inference/tensorrt-llm |
mlops/models
特定的模型架构与工具 —— 计算机视觉(CLIP、SAM、Stable Diffusion)、语音(Whisper)、音频生成(AudioCraft)以及多模态模型(LLaVA)。
| 技能 | 描述 | 路径 |
|---|
audiocraft-audio-generation | 用于音频生成的 PyTorch 库,包括文本到音乐(MusicGen)和文本到声音(AudioGen)。当需要根据文本描述生成音乐、创建音效或进行旋律条件下的音乐生成时使用。 | mlops/models/audiocraft |
clip | OpenAI 的模型,连接视觉与语言。支持零样本图像分类、图像-文本匹配以及跨模态检索。在 4 亿张图像-文本对上训练。适用于无需微调即可进行图像搜索、内容审核或视觉-语言任务。适用于通用用途… | mlops/models/clip |
llava | 大型语言与视觉助手。支持视觉指令调优和基于图像的对话。结合 CLIP 视觉编码器与 Vicuna/LLaMA 语言模型。支持多轮图像聊天、视觉问答和指令遵循。适用于视觉-语言对话… | mlops/models/llava |
segment-anything-model | 图像分割的基础模型,支持零样本迁移。当需要使用点、框或掩码作为提示来分割图像中的任意对象,或自动生成图像中所有对象的掩码时使用。 | mlops/models/segment-anything |
stable-diffusion-image-generation | 基于 HuggingFace Diffusers 的先进文本到图像生成模型(Stable Diffusion)。适用于根据文本提示生成图像、执行图像到图像转换、图像修复(inpainting),或构建自定义扩散流水线。 | mlops/models/stable-diffusion |
whisper | OpenAI 的通用语音识别模型。支持 99 种语言,具备转录、翻译为英语以及语言识别功能。提供六种模型尺寸,从 tiny(3900 万参数)到 large(15.5 亿参数)。适用于语音转文字、播客转录或多语言音频处理… | mlops/models/whisper |
mlops/research
用于构建和优化 AI 系统的机器学习研究框架,支持声明式编程。
| 技能 | 描述 | 路径 |
|---|
dspy | 使用声明式编程构建复杂的 AI 系统,自动优化提示,通过 DSPy(斯坦福 NLP 的系统化大语言模型编程框架)创建模块化 RAG 系统和智能体 | mlops/research/dspy |
mlops/training
用于微调、RLHF/DPO/GRPO 训练、分布式训练框架以及优化工具,支持 LLM 及其他模型的训练。
| 技能 | 描述 | 路径 |
|---|
axolotl | 使用 Axolotl 进行 LLM 微调的专家指导 - YAML 配置、100+ 模型、LoRA/QLoRA、DPO/KTO/ORPO/GRPO、多模态支持 | mlops/training/axolotl |
distributed-llm-pretraining-torchtitan | 使用 torchtitan 提供原生 PyTorch 分布式 LLM 预训练,支持 4D 并行(FSDP2、TP、PP、CP)。适用于在 8 到 512+ GPU 上大规模预训练 Llama 3.1、DeepSeek V3 或自定义模型,支持 Float8、torch.compile 和分布式检查点。 | mlops/training/torchtitan |
fine-tuning-with-trl | 使用 TRL 进行强化学习微调 LLM - SFT 用于指令调优,DPO 用于偏好对齐,PPO/GRPO 用于奖励优化,以及奖励模型训练。适用于需要 RLHF、对齐模型偏好或从人类反馈中训练的场景。兼容 HuggingFace Tr… | mlops/training/trl-fine-tuning |
grpo-rl-training | 使用 TRL 进行 GRPO/RL 微调的专家指导,适用于推理和任务特定模型训练 | mlops/training/grpo-rl-training |
hermes-atropos-environments | 构建、测试和调试 Hermes Agent RL 环境以用于 Atropos 训练。涵盖 HermesAgentBaseEnv 接口、奖励函数、代理循环集成、工具评估、wandb 日志记录以及三种 CLI 模式(serve/process/evaluate)。适用于创建、审查或调试 Atropos 训练环境。 | mlops/training/hermes-atropos-environments |
huggingface-accelerate | 最简单的分布式训练 API。仅需 4 行代码即可为任意 PyTorch 脚本添加分布式支持。统一的 DeepSpeed/FSDP/Megatron/DDP API。自动设备分配、混合精度(FP16/BF16/FP8)。交互式配置,单命令启动。HuggingFace 生态系统标准。 | mlops/training/accelerate |
optimizing-attention-flash | 使用 Flash Attention 优化 Transformer 注意力机制,实现 2-4 倍加速和 10-20 倍内存减少。适用于训练/运行长序列(>512 tokens)的 Transformer 模型,或遇到注意力机制导致 GPU 内存不足的问题,或需要更快推理速度的场景。支持 PyTorch 原生 SDPA,… | mlops/training/flash-attention |
peft-fine-tuning | 使用 LoRA、QLoRA 和 25+ 方法进行 LLM 的参数高效微调。适用于在 GPU 内存有限的情况下微调大模型(7B-70B),需要训练 <1% 参数且精度损失最小,或进行多适配器服务的场景。HuggingFace 官方库… | mlops/training/peft |
pytorch-fsdp | 使用 PyTorch FSDP 进行全分片数据并行训练的专家指导 - 参数分片、混合精度、CPU卸载、FSDP2 | mlops/training/pytorch-fsdp |
pytorch-lightning | 高级 PyTorch 框架,包含 Trainer 类、自动分布式训练(DDP/FSDP/DeepSpeed)、回调系统和极少样板代码。代码从笔记本电脑扩展到超级计算机保持一致。适用于希望使用内置最佳实践的干净训练循环。 | mlops/training/pytorch-lightning |
simpo-training | LLM 对齐的简单偏好优化。DPO 的无参考替代方案,性能更优(AlpacaEval 2.0 上提升 +6.4 分)。无需参考模型,比 DPO 更高效。适用于希望比 DPO/PPO 更简单、更快训练的偏好对齐场景。 | mlops/training/simpo |
slime-rl-training | 提供使用 slime(Megatron+SGLang 框架)进行 LLM 后训练的强化学习指导。适用于训练 GLM 模型、实现自定义数据生成工作流,或需要与 Megatron-LM 紧密集成以实现 RL 扩展的场景。 | mlops/training/slime |
unsloth | 使用 Unsloth 实现快速微调的专家指导 - 训练速度提升 2-5 倍,内存减少 50-80%,支持 LoRA/QLoRA 优化 | mlops/training/unsloth |
mlops/vector-databases
用于 RAG、语义搜索和 AI 应用后端的向量相似性搜索与嵌入数据库。
| 技能 | 描述 | 路径 |
|---|
chroma | 用于 AI 应用的开源嵌入数据库。存储嵌入向量和元数据,执行向量搜索和全文搜索,按元数据过滤。简单的四函数 API。可从笔记本扩展到生产集群。适用于语义搜索、RAG 应用或文档检索。最佳适用于…… | mlops/vector-databases/chroma |
faiss | Facebook 开发的高效相似性搜索与密集向量聚类库。支持数十亿向量,支持 GPU 加速,提供多种索引类型(Flat、IVF、HNSW)。适用于快速 k-NN 搜索、大规模向量检索,或需要纯相似性搜索而无需…… | mlops/vector-databases/faiss |
pinecone | 用于生产级 AI 应用的托管向量数据库。完全托管,自动扩展,支持混合搜索(密集 + 稀疏),元数据过滤和命名空间。延迟极低(p95 <100ms)。适用于生产级 RAG、推荐系统或大规模语义搜索。最适合服务器…… | mlops/vector-databases/pinecone |
qdrant-vector-search | 用于 RAG 和语义搜索的高性能向量相似性搜索引擎。适用于构建需要快速最近邻搜索、带过滤的混合搜索,或使用 Rust 驱动性能的可扩展向量存储的生产级 RAG 系统。 | mlops/vector-databases/qdrant |
笔记记录
笔记记录技能,用于保存信息、辅助研究,以及在多轮会话中协作规划和信息共享。
| 技能 | 描述 | 路径 |
|---|
obsidian | 在 Obsidian 仓库中阅读、搜索和创建笔记。 | note-taking/obsidian |
生产力
用于文档创建、演示文稿、电子表格及其他生产力工作流的技能。
| 技能 | 描述 | 路径 |
|---|
google-workspace | 通过 Python 集成 Gmail、日历、驱动器、联系人、电子表格和文档。使用 OAuth2 并支持自动令牌刷新。无需外部二进制文件——完全在 Hermes 虚拟环境中使用 Google 的 Python 客户端库运行。 | productivity/google-workspace |
linear | 通过 GraphQL API 管理 Linear 问题、项目和团队。创建、更新、搜索和组织问题。 | productivity/linear |
nano-pdf | 使用 nano-pdf 命令行工具,通过自然语言指令编辑 PDF。修改文本、修复拼写错误、更新标题,并对特定页面的内容进行更改,无需手动编辑。 | productivity/nano-pdf |
notion | 使用 Notion API 通过 curl 创建和管理页面、数据库和块。直接从终端搜索、创建、更新和查询 Notion 工作区。 | productivity/notion |
ocr-and-documents | 从 PDF 和扫描文档中提取文本。使用 web_extract 处理远程 URL,使用 pymupdf 处理本地文本型 PDF,使用 marker-pdf 处理 OCR/扫描文档。对于 DOCX 文件使用 python-docx,PPTX 文件请参考 powerpoint 技能。 | productivity/ocr-and-documents |
powerpoint | “任何涉及 .pptx 文件的情况均可使用此技能——无论是输入、输出或两者兼有。包括:创建幻灯片演示文稿、路演演示文稿或演示文稿;读取、解析或从任意 .pptx 文件中提取文本(即使提取的内容将用于其他地方,例如…… | productivity/powerpoint |
用于学术研究、论文发现、文献综述、领域侦察、市场数据、内容监控和科学知识检索的技能。
| 技能 | 描述 | 路径 |
|---|
arxiv | 使用 arXiv 的免费 REST API 搜索和检索学术论文。无需 API 密钥。可通过关键词、作者、类别或 ID 进行搜索。可与 web_extract 或 ocr-and-documents 技能结合,以读取完整论文内容。 | research/arxiv |
blogwatcher | 使用 blogwatcher CLI 监控博客和 RSS/Atom 订阅源的更新。添加博客、扫描新文章,并跟踪已阅读内容。 | research/blogwatcher |
llm-wiki | Karpathy 的 LLM Wiki — 构建并维护一个持久、相互链接的 Markdown 知识库。可导入源内容,查询已编译的知识,并进行一致性检查。与 RAG 不同,该 Wiki 仅编译一次并保持最新状态。可作为 Obsidian 仓库使用。通过 skills.config.wiki.path 配置。 | research/llm-wiki |
domain-intel | 使用 Python 标准库进行被动域名侦察。包括子域名发现、SSL 证书检查、WHOIS 查询、DNS 记录分析、域名可用性检查以及批量多域名分析。无需 API 密钥。 | research/domain-intel |
duckduckgo-search | 通过 DuckDuckGo 进行免费网络搜索 — 支持文本、新闻、图片、视频。无需 API 密钥。安装 ddgs CLI 后优先使用;仅在确认当前运行时 ddgs 可用时,才使用 Python 的 DDGS 库。 | research/duckduckgo-search |
ml-paper-writing | 为 NeurIPS、ICML、ICLR、ACL、AAAI、COLM 等会议撰写符合出版标准的机器学习/AI 论文。适用于从研究仓库起草论文、构建论证结构、验证引用或准备最终提交版本时使用。包含 LaTeX 模板、审稿人指南和引用验证功能。 | research/ml-paper-writing |
polymarket | 查询 Polymarket 预测市场数据 — 搜索市场、获取价格、订单簿和价格历史。通过公共 REST API 仅读取,无需 API 密钥。 | research/polymarket |
red-teaming
用于 LLM 红队测试、越狱攻击和安全过滤器绕过研究的技能。
| 技能 | 描述 | 路径 |
|---|
godmode | 使用 G0DM0D3 技术对通过 API 提供的 LLM 进行越狱 — 包括 33 种 Parseltongue 输入混淆技术、GODMODE CLASSIC 系统提示模板、ULTRAPLINIAN 多模型竞速、编码升级以及 Hermes 原生预填充/系统提示集成。适用于任何可通过 API 访问的模型,包括闭源模型。 | red-teaming/godmode |
smart-home
用于控制智能家居设备 — 灯光、开关、传感器和家庭自动化系统。
| 技能 | 描述 | 路径 |
|---|
openhue | 通过 OpenHue CLI 控制 Philips Hue 灯具、房间和场景。可开关灯光、调节亮度、颜色、色温,并激活场景。 | smart-home/openhue |
用于与社交平台交互 — 发布内容、阅读信息、监控动态和账户操作。
| 技能 | 描述 | 路径 |
|---|
xitter | 使用官方 X API 凭据,通过 x-cli 终端客户端与 X/Twitter 交互。 | social-media/xitter |
software-development
| 技能 | 描述 | 路径 |
|---|
code-review | 执行全面代码审查的指南,重点关注安全性和质量 | software-development/code-review |
plan | Hermes 的规划模式 — 检查上下文,在当前工作区/后端工作目录的 .hermes/plans/ 中编写 Markdown 规划文件,且不执行任何工作。 | software-development/plan |
requesting-code-review | 在完成任务、实现重大功能或合并前使用。通过系统化审查流程验证工作是否满足要求。 | software-development/requesting-code-review |
subagent-driven-development | 在执行实现计划且任务独立时使用。为每个任务分派新的 delegate_task,并进行两阶段审查(规范符合性,然后代码质量)。 | software-development/subagent-driven-development |
systematic-debugging | 遇到任何错误、测试失败或意外行为时使用。四阶段根本原因调查 — 在理解问题之前不进行修复。 | software-development/systematic-debugging |
test-driven-development | 在实现任何功能或修复 bug 之前使用。强制执行 RED-GREEN-REFACTOR 循环,采用测试先行方法。 | software-development/test-driven-development |
writing-plans | 当你有多个步骤任务的规格或需求时使用。创建包含小任务、精确文件路径和完整代码示例的全面实现计划。 | software-development/writing-plans |
可选技能
可选技能随仓库一起提供,位于 optional-skills/ 目录下,但默认不启用。它们涵盖更重或更小众的使用场景。通过以下方式安装:
hermes skills install official/<category>/<skill>
autonomous-ai-agents
| 技能 | 描述 | 路径 |
|---|
blackbox | 将编码任务委派给 Blackbox AI CLI 代理。具备多模型能力的代理,内置评判机制,通过多个 LLM 执行任务并选择最佳结果。需要安装 blackbox CLI 并提供 Blackbox AI API 密钥。 | autonomous-ai-agents/blackbox |
blockchain
| 技能 | 描述 | 路径 |
|---|
base | 通过 Base RPC + CoinGecko 查询 Base(以太坊 L2)区块链数据并获取美元定价信息——包括钱包余额、代币信息、交易详情、Gas 分析、合约检查、鲸鱼检测以及实时网络状态。无需 API 密钥。 | blockchain/base |
solana | 通过 Solana RPC + CoinGecko 查询 Solana 区块链数据并获取美元定价信息——包括钱包余额、代币组合及其价值、交易详情、NFT、鲸鱼检测以及实时网络状态。无需 API 密钥。 | blockchain/solana |
creative
| 技能 | 描述 | 路径 |
|---|
blender-mcp | 通过 socket 连接,直接从 Hermes 控制 Blender。创建 3D 对象、材质、动画,并运行任意 Blender Python(bpy)代码。 | creative/blender-mcp |
meme-generation | 使用 Pillow 选择模板并叠加文字,生成真实的 meme 图像,输出实际的 .png meme 文件。 | creative/meme-generation |
devops
| 技能 | 描述 | 路径 |
|---|
docker-management | 管理 Docker 容器、镜像、卷、网络以及 Compose 堆栈——涵盖生命周期操作、调试、清理和 Dockerfile 优化。 | devops/docker-management |
email
health
| 技能 | 描述 | 路径 |
|---|
neuroskill-bci | 连接到正在运行的 NeuroSkill 实例,将用户的实时认知与情绪状态(专注度、放松度、情绪、认知负荷、困倦、心率、HRV、睡眠阶段以及 40 多项衍生 EXG 指标)融入响应中。需要配备 BCI 可穿戴设备(Muse 2/S 或 OpenBCI)及 NeuroSkill 桌面应用程序。 | health/neuroskill-bci |
mcp
| 技能 | 描述 | 路径 |
|---|
fastmcp | 使用 Python 中的 FastMCP 构建、测试、检查、安装和部署 MCP 服务器。适用于创建新的 MCP 服务器、将 API 或数据库封装为 MCP 工具、暴露资源或提示,或为 HTTP 部署准备 FastMCP 服务器。 | mcp/fastmcp |
migration
| 技能 | 描述 | 路径 |
|---|
openclaw-migration | 将用户的 OpenClaw 自定义配置迁移至 Hermes Agent。从 ~/.openclaw 导入 Hermes 兼容的记忆、SOUL.md、命令允许列表、用户技能以及选定的工作区资产,然后报告无法迁移的内容及其原因。 | migration/openclaw-migration |
productivity
| 技能 | 描述 | 路径 |
|---|
telephony | 为 Hermes 提供电话功能——配置并持久化 Twilio 号码,发送和接收短信/MMS,发起直接通话,以及通过 Bland.ai 或 Vapi 发起 AI 驱动的外呼。 | productivity/telephony |
research
| 技能 | 描述 | 路径 |
|---|
bioinformatics | 通往 bioSkills 和 ClawBio 提供的 400 多项生物信息学技能的入口。涵盖基因组学、转录组学、单细胞分析、变异检测、药物基因组学、宏基因组学、结构生物学等。 | research/bioinformatics |
qmd | 使用 qmd——一种结合 BM25、向量搜索和 LLM 重排序的混合检索引擎——在本地搜索个人知识库、笔记、文档和会议记录。支持 CLI 和 MCP 集成。 | research/qmd |
security
| 技能 | 描述 | 路径 |
|---|
1password | 设置并使用 1Password CLI(op)。适用于安装 CLI、启用桌面应用集成、登录,以及为命令读取或注入密钥。 | security/1password |
oss-forensics | 针对 GitHub 仓库的供应链调查、证据恢复和取证分析。涵盖已删除提交恢复、强制推送检测、IOC 提取、多源证据收集和结构化取证报告。 | security/oss-forensics |
sherlock | 在 400 多个社交网络上进行 OSINT 用户名搜索。通过用户名追踪社交媒体账户。 | security/sherlock |