大模型“煤气灯效应”:别再甩锅用户,“用错了”不是万能借口
大型语言模型(LLM)的能力毋庸置疑,它们远不止是“智能自动补全”工具。然而,当LLM出现问题时,一句“你可能用错了”似乎成了万能挡箭牌。这种说法看似强调了用户技能的重要性,实则掩盖了LLM固有的不可预测性、黑盒困境以及潜在的双重用途风险。本文将深入剖析这种“煤气灯效应”,揭示其背后隐藏的危险,并呼吁行业回归理性,共同构建更安全、更负责任的AI未来。 “自动补全”之外:承认LLM的进步,正视其局限