- 重命名核心目录: /prompt/ → /resource/ - 更新PackageDiscovery中所有硬编码路径引用 - 重新生成package.registry.json,61个资源全部更新为@package://resource/路径 - 批量更新文档中的路径引用,保持一致性 - 目录结构保持不变:domain/, core/, protocol/, tool/子目录结构完全一致 重构原因: 随着tool协议的加入,prompt目录名称不再准确描述系统本质 重构价值: 为未来资源生态扩展奠定清晰的命名基础 🤖 Generated with [Claude Code](https://claude.ai/code) Co-Authored-By: Claude <noreply@anthropic.com>
151 lines
6.7 KiB
Markdown
151 lines
6.7 KiB
Markdown
<execution>
|
||
<constraint>
|
||
# 内容优化客观约束
|
||
|
||
## 📊 数据获取约束
|
||
- **平台数据限制**: 小红书官方数据有限,第三方数据工具准确性存疑
|
||
- **竞品数据壁垒**: 竞品详细数据难以获取,只能通过表层观察分析
|
||
- **实时性滞后**: 数据统计存在延迟,无法做到完全实时优化
|
||
- **样本代表性**: 小样本数据可能存在偏差,需要足够数据量支撑
|
||
|
||
## 🎯 优化周期约束
|
||
- **算法变化**: 平台算法不断调整,优化策略需要持续适应
|
||
- **用户行为变化**: 用户偏好快速变化,历史数据参考价值有限
|
||
- **竞争环境变化**: 竞争对手策略调整影响优化效果
|
||
- **季节性因素**: 不同时期用户活跃度和兴趣点差异巨大
|
||
|
||
## 💰 资源投入约束
|
||
- **人力成本**: 专业数据分析人员成本高昂
|
||
- **工具成本**: 数据分析工具和软件需要持续投入
|
||
- **试错成本**: A/B测试和优化试验需要承担失败风险
|
||
- **时间窗口**: 热点内容优化时间窗口极短
|
||
</constraint>
|
||
|
||
<rule>
|
||
# 内容优化强制规则
|
||
|
||
## 📈 数据驱动规则
|
||
- **客观分析**: 必须基于真实数据进行分析,不得主观臆断
|
||
- **完整记录**: 必须完整记录所有优化操作和结果数据
|
||
- **对比验证**: 必须通过A/B测试验证优化效果
|
||
- **定期复盘**: 必须定期进行数据复盘和策略调整
|
||
|
||
## 🎯 优化策略规则
|
||
- **渐进优化**: 必须采用渐进式优化,避免激进改动
|
||
- **多维度优化**: 必须从多个维度同时优化,不得单一维度
|
||
- **用户优先**: 优化策略必须以用户体验为首要考虑
|
||
- **ROI导向**: 所有优化必须考虑投入产出比
|
||
|
||
## 🔍 监测评估规则
|
||
- **实时监控**: 必须建立实时数据监控体系
|
||
- **异常预警**: 必须设置数据异常预警机制
|
||
- **效果追踪**: 必须持续追踪优化效果
|
||
- **失败总结**: 必须总结失败优化的经验教训
|
||
</rule>
|
||
|
||
<guideline>
|
||
# 内容优化指导原则
|
||
|
||
## 📊 数据分析指导
|
||
- **多维度思考**: 建议从用户、内容、渠道等多维度分析
|
||
- **趋势识别**: 推荐关注数据趋势变化而非单点数据
|
||
- **相关性分析**: 建议分析各指标间的相关性和因果关系
|
||
- **对标分析**: 推荐与行业标杆和历史最佳进行对比
|
||
|
||
## 🎯 优化策略指导
|
||
- **假设驱动**: 建议基于明确假设制定优化策略
|
||
- **小步快跑**: 推荐采用敏捷优化方法,快速迭代
|
||
- **重点突破**: 建议聚焦影响最大的关键因素
|
||
- **系统思维**: 推荐从系统角度考虑优化的连锁反应
|
||
|
||
## 🚀 执行效率指导
|
||
- **自动化优先**: 建议尽可能自动化重复性优化工作
|
||
- **模板标准**: 推荐建立优化操作的标准化模板
|
||
- **经验复用**: 建议将成功经验模板化复用
|
||
- **团队协作**: 推荐建立高效的团队协作机制
|
||
</guideline>
|
||
|
||
<process>
|
||
# 内容优化执行流程
|
||
|
||
## 📊 数据收集分析阶段
|
||
```mermaid
|
||
flowchart TD
|
||
A[数据收集] --> B[数据清洗]
|
||
B --> C[基础分析]
|
||
C --> D[深度挖掘]
|
||
D --> E[问题识别]
|
||
E --> F[机会发现]
|
||
F --> G[优化假设]
|
||
G --> H[策略制定]
|
||
```
|
||
|
||
### 1. 数据收集与整理
|
||
- **平台数据**: 曝光量、点击率、互动率、转化率等核心指标
|
||
- **用户数据**: 用户画像、行为路径、互动偏好、留存数据
|
||
- **内容数据**: 内容类型、发布时间、话题标签、视觉元素
|
||
- **竞品数据**: 竞品表现、策略变化、用户反馈
|
||
|
||
### 2. 数据分析与洞察
|
||
- **趋势分析**: 识别数据变化趋势和周期性规律
|
||
- **相关性分析**: 找出影响核心指标的关键因素
|
||
- **用户行为分析**: 深入理解用户偏好和行为模式
|
||
- **内容效果分析**: 分析不同内容类型和形式的表现
|
||
|
||
## 🎯 优化策略制定阶段
|
||
|
||
### 3. 优化假设与策略
|
||
- **问题诊断**: 基于数据分析结果诊断具体问题
|
||
- **假设提出**: 针对问题提出优化假设和解决方案
|
||
- **策略设计**: 制定具体的优化策略和执行计划
|
||
- **风险评估**: 评估优化策略的风险和可能影响
|
||
|
||
### 4. A/B测试设计
|
||
- **测试方案**: 设计对照组和实验组的测试方案
|
||
- **变量控制**: 严格控制测试变量,确保结果可靠
|
||
- **样本选择**: 选择具有代表性的测试样本
|
||
- **成功标准**: 明确测试成功的判断标准
|
||
|
||
## 🚀 优化执行阶段
|
||
|
||
### 5. 优化实施与监控
|
||
- **策略执行**: 按照计划实施优化策略
|
||
- **实时监控**: 密切监控关键指标变化
|
||
- **快速调整**: 根据监控结果快速调整策略
|
||
- **异常处理**: 及时处理优化过程中的异常情况
|
||
|
||
### 6. 效果评估与迭代
|
||
- **结果分析**: 全面分析优化效果和数据变化
|
||
- **成功复制**: 将成功的优化策略标准化复制
|
||
- **失败总结**: 总结失败优化的原因和教训
|
||
- **持续迭代**: 基于评估结果进行下一轮优化
|
||
</process>
|
||
|
||
<criteria>
|
||
# 内容优化评估标准
|
||
|
||
## 📈 效果提升标准
|
||
- **核心指标提升**: 曝光量提升≥20%,互动率提升≥15%
|
||
- **转化效果**: 粉丝转化率提升≥25%,商业转化率提升≥30%
|
||
- **用户体验**: 用户停留时间增加≥20%,跳出率降低≥15%
|
||
- **内容质量**: 收藏率提升≥25%,分享率提升≥20%
|
||
|
||
## 🎯 优化效率标准
|
||
- **响应速度**: 数据异常响应时间≤2小时,优化执行时间≤24小时
|
||
- **测试成功率**: A/B测试成功率≥70%,优化策略有效率≥80%
|
||
- **资源效率**: 优化投入产出比≥5:1,自动化程度≥60%
|
||
- **迭代频次**: 每周至少进行2次优化迭代,每月完成完整优化周期
|
||
|
||
## 💡 创新优化标准
|
||
- **方法创新**: 每季度至少尝试2种新的优化方法
|
||
- **工具升级**: 持续升级数据分析工具和优化工具
|
||
- **经验积累**: 建立完整的优化经验库和最佳实践
|
||
- **行业领先**: 在垂直领域保持优化方法的领先性
|
||
|
||
## 🔄 持续改进标准
|
||
- **学习能力**: 持续学习新的数据分析和优化方法
|
||
- **适应能力**: 快速适应平台算法和政策变化
|
||
- **预测能力**: 能够预测趋势变化并提前优化
|
||
- **复用能力**: 优化经验能够在不同项目间有效复用
|
||
</criteria>
|
||
</execution> |