liurenchaxin/internal/technical/Anti_Reasoning_Monologue_So...

11 KiB
Raw Blame History

防止推理模型独白泄露解决方案

🎯 问题分析

推理模型的"搞笑"表现

用户问题: "今天股市如何?"

推理模型回答:
"让我想想...首先我需要分析当前的市场情况...
嗯,从技术面来看...不对,我应该先看基本面...
等等,用户问的是今天,我需要看今日数据...
好的,我的分析是:今天股市表现良好。"

正常回答应该是:
"今天股市表现良好,主要受益于..."

🔍 模型分类与选择策略

1. 推理模型识别

# 已知的推理模型列表
REASONING_MODELS = {
    "openai": [
        "o1-preview", "o1-mini", "o1-pro"
    ],
    "anthropic": [
        "claude-3-opus-reasoning", "claude-3-sonnet-reasoning"
    ],
    "google": [
        "gemini-2.0-flash-thinking"
    ],
    "alibaba": [
        "qwen2.5-math-instruct", "qwen-reasoning"
    ],
    "deepseek": [
        "deepseek-r1", "deepseek-reasoning"
    ]
}

# 非推理模型(安全选择)
NON_REASONING_MODELS = {
    "openai": ["gpt-4o-mini", "gpt-4o", "gpt-3.5-turbo"],
    "anthropic": ["claude-3.5-sonnet", "claude-3-haiku"],
    "google": ["gemini-1.5-flash", "gemini-1.5-pro"],
    "mistral": ["mistral-7b-instruct", "mixtral-8x7b-instruct"],
    "meta": ["llama-3.1-8b-instruct", "llama-3.1-70b-instruct"]
}

2. 八仙模型重新配置(避免推理模型)

# 修正后的八仙配置
baxian_models_corrected:
  乾一_吕洞宾:
    model: "mistralai/mistral-7b-instruct:free"  # 非推理模型 ✅
    reasoning_type: "non-reasoning"
    
  兑二_何仙姑:
    model: "google/gemini-1.5-flash:free"  # 非推理模型 ✅
    reasoning_type: "non-reasoning"
    
  离三_铁拐李:
    model: "microsoft/phi-3.5-mini-instruct:free"  # 非推理模型 ✅
    reasoning_type: "non-reasoning"
    
  震四_汉钟离:
    model: "meta-llama/llama-3.1-8b-instruct:free"  # 非推理模型 ✅
    reasoning_type: "non-reasoning"
    
  巽五_蓝采和:
    model: "moonshot-v1-8k:free"  # 非推理模型 ✅
    reasoning_type: "non-reasoning"
    
  坎六_张果老:
    model: "alibaba/qwen-2.5-7b-instruct:free"  # 避免推理版本 ✅
    reasoning_type: "non-reasoning"
    
  艮七_韩湘子:
    model: "deepseek-chat:free"  # 非推理版本 ✅
    reasoning_type: "non-reasoning"
    
  坤八_曹国舅:
    model: "zhipuai/glm-4-9b-chat:free"  # 非推理模型 ✅
    reasoning_type: "non-reasoning"

🛡️ 防独白泄露技术方案

方案1: Prompt工程防护

class AntiMonologuePrompt:
    """防独白泄露的Prompt设计"""
    
    @staticmethod
    def create_clean_prompt(role, character, topic):
        return f"""你是{role}{character}
【重要规则】
1. 直接给出你的观点,不要展示思考过程
2. 不要说"让我想想"、"首先"、"然后"等思考词汇
3. 不要暴露你的分析步骤
4. 直接表达结论和建议
5. 保持角色特色,简洁有力

【话题】{topic}

【你的发言】直接开始不超过100字"""

# 示例对比
bad_prompt = "请分析一下今天的股市情况"

good_prompt = """你是吕洞宾,剑仙,理性分析师。

【重要规则】
1. 直接给出观点,不展示思考过程
2. 不说"让我分析"、"首先"等词
3. 直接表达结论
4. 保持剑仙风格,简洁犀利

【话题】今天股市情况

【你的发言】直接开始不超过100字"""

方案2: 输出过滤系统

class OutputFilter:
    """输出内容过滤器"""
    
    def __init__(self):
        # 需要过滤的思考词汇
        self.thinking_patterns = [
            r"让我想想.*?",
            r"首先.*?然后.*?",
            r"我需要分析.*?",
            r"让我考虑.*?",
            r"从.*?角度来看.*?",
            r"等等.*?",
            r"不对.*?我应该.*?",
            r"嗯.*?",
            r"好的,我的.*?是",
            r"经过思考.*?",
            r"分析如下.*?",
            r"我的思路是.*?"
        ]
        
        # 独白标识词
        self.monologue_indicators = [
            "让我", "我想", "我觉得需要", "我应该",
            "等等", "不对", "重新考虑", "换个角度"
        ]
    
    def filter_monologue(self, text):
        """过滤独白内容"""
        import re
        
        # 移除思考过程
        for pattern in self.thinking_patterns:
            text = re.sub(pattern, "", text, flags=re.IGNORECASE)
        
        # 移除独白句子
        sentences = text.split('。')
        filtered_sentences = []
        
        for sentence in sentences:
            has_monologue = any(indicator in sentence for indicator in self.monologue_indicators)
            if not has_monologue and sentence.strip():
                filtered_sentences.append(sentence.strip())
        
        # 重新组合
        result = '。'.join(filtered_sentences)
        if result and not result.endswith('。'):
            result += '。'
            
        return result
    
    def clean_output(self, raw_output):
        """清理输出内容"""
        # 1. 过滤独白
        filtered = self.filter_monologue(raw_output)
        
        # 2. 移除多余空行
        filtered = re.sub(r'\n\s*\n', '\n', filtered)
        
        # 3. 确保简洁
        if len(filtered) > 200:  # 如果太长取前200字
            filtered = filtered[:200] + "..."
        
        return filtered.strip()

方案3: 模型调用包装器

class SafeModelCaller:
    """安全模型调用器"""
    
    def __init__(self):
        self.output_filter = OutputFilter()
        self.retry_count = 3
    
    async def safe_call(self, model_name, prompt, max_tokens=150):
        """安全调用模型,确保无独白泄露"""
        
        for attempt in range(self.retry_count):
            try:
                # 调用模型
                raw_response = await self.call_model(model_name, prompt, max_tokens)
                
                # 过滤输出
                clean_response = self.output_filter.clean_output(raw_response)
                
                # 验证输出质量
                if self.is_valid_response(clean_response):
                    return clean_response
                else:
                    # 如果输出质量不好,重试
                    continue
                    
            except Exception as e:
                if attempt == self.retry_count - 1:
                    return f"系统错误,请稍后重试。"
                continue
        
        return "无法生成有效回应。"
    
    def is_valid_response(self, response):
        """验证回应质量"""
        # 检查是否太短
        if len(response.strip()) < 10:
            return False
        
        # 检查是否还有独白痕迹
        monologue_signs = ["让我", "我想", "首先", "然后"]
        if any(sign in response for sign in monologue_signs):
            return False
        
        return True

🎭 八仙专用防独白配置

针对性Prompt模板

class BaxianAntiMonologue:
    """八仙防独白专用配置"""
    
    def __init__(self):
        self.immortal_prompts = {
            "吕洞宾": """你是吕洞宾,剑仙,理性分析师。
            
【发言规则】
- 直接表达观点,如剑出鞘般犀利
- 不展示分析过程,只给结论
- 语言简洁有力不超过100字
- 保持剑仙风格:理性、犀利、直接

【话题】{topic}

【直接发言】:""",

            "何仙姑": """你是何仙姑,唯一女仙,情感洞察师。
            
【发言规则】
- 直接表达直觉判断
- 不说"我感觉"、"让我想想"
- 语言优美但简洁不超过100字
- 保持女性视角:敏锐、温和、智慧

【话题】{topic}

【直接发言】:""",

            # ... 其他六仙类似配置
        }
    
    def get_clean_prompt(self, immortal, topic):
        """获取无独白风险的prompt"""
        base_prompt = self.immortal_prompts.get(immortal, "")
        return base_prompt.format(topic=topic)

🔧 实施方案

完整的防独白系统

class XiantianBaguaAntiMonologue:
    """先天八卦防独白辩论系统"""
    
    def __init__(self):
        self.safe_caller = SafeModelCaller()
        self.baxian_prompts = BaxianAntiMonologue()
        self.model_config = self.load_safe_models()
    
    def load_safe_models(self):
        """加载安全的非推理模型"""
        return {
            "吕洞宾": "mistralai/mistral-7b-instruct:free",
            "何仙姑": "google/gemini-1.5-flash:free",
            "铁拐李": "microsoft/phi-3.5-mini-instruct:free",
            "汉钟离": "meta-llama/llama-3.1-8b-instruct:free",
            "蓝采和": "moonshot-v1-8k:free",
            "张果老": "alibaba/qwen-2.5-7b-instruct:free",
            "韩湘子": "deepseek-chat:free",
            "曹国舅": "zhipuai/glm-4-9b-chat:free"
        }
    
    async def get_immortal_statement(self, immortal, topic):
        """获取仙人发言(无独白版本)"""
        # 获取安全prompt
        prompt = self.baxian_prompts.get_clean_prompt(immortal, topic)
        
        # 获取模型
        model = self.model_config[immortal]
        
        # 安全调用
        statement = await self.safe_caller.safe_call(model, prompt)
        
        return statement
    
    async def conduct_clean_debate(self, topic):
        """进行无独白泄露的辩论"""
        bagua_order = ["吕洞宾", "何仙姑", "铁拐李", "汉钟离",
                      "蓝采和", "张果老", "韩湘子", "曹国舅"]
        
        debate_results = []
        
        for immortal in bagua_order:
            statement = await self.get_immortal_statement(immortal, topic)
            debate_results.append({
                "immortal": immortal,
                "statement": statement,
                "clean": True  # 标记为已清理
            })
        
        return debate_results

💡 最终建议

推荐策略

  1. 优先使用非推理模型 - 从源头避免问题
  2. 强化Prompt设计 - 明确禁止展示思考过程
  3. 输出后处理 - 过滤可能的独白内容
  4. 质量验证 - 确保输出符合角色特征

模型选择原则

✅ 选择: 标准对话模型 (gpt-4o-mini, claude-3.5-sonnet, mistral-7b等)
❌ 避免: 推理模型 (o1系列, reasoning系列等)
✅ 特征: 直接输出,无思考链暴露
❌ 特征: 会显示"让我想想..."的模型

这样配置后,你的八仙就不会再说出搞笑的独白了,每个都会保持专业的角色形象!🎭

需要我进一步优化某个具体方面吗?