模型的局限性
模型会给出看似真实的回答
重新生成之后:
主打一个情绪价值,你说得对
解决方案
- 让模型找出相关信息
- 让模型基于相关信息回答
我问了 GPT 如何防止防止看似真实的答案,GPT 自己给了我一些建议:
“我听说GPT有时候会给出看似真实的答案,我要如何避免这种情况呢”
为了避免 GPT 给出看似真实但实际上可能不准确的答案,你可以采取以下几种方法:
明确提出要求:
在向 GPT 提问时,明确要求其只提供已知的信息或提出其不确定的部分。例如,你可以使用类似以下的指令:
- “如果你不确定答案,请告诉我。”
- “请仅根据你已知的事实回答这个问题。”
要求参考来源:
当你向 GPT 提出需要事实支持的问题时,要求其提供参考来源。如果 GPT 无法提供明确的来源,说明该信息可能不准确。
细分问题:
将问题细化,避免复杂的、模棱两可的问题。这样可以减少 GPT 编造答案的可能性。例如,将一个大问题拆分成几个具体的小问题。
询问概率或不确定性:
询问 GPT 对于某个答案的信心程度,或明确要求其指出某个回答中的不确定性。
验证信息:
如果可能的话,将 GPT 提供的信息与其他可信来源进行对比,尤其是当你需要作出重要决策或使用该信息进行进一步操作时。
通过这些方法,你可以更好地过滤和验证 GPT 提供的信息,减少获取虚假或不准确信息的风险。
这一点上 Gemini 在交互上有一点做的很好,它主动提供了通过 Google 搜索回答内容来判定内容是否有依据的按钮。