DeepLearning.AI: ChatGPT Prompt Engineering for Developers 笔记3: 模型的局限性

模型的局限性

模型会给出看似真实的回答

重新生成之后:

主打一个情绪价值,你说得对

解决方案

  1. 让模型找出相关信息
  2. 让模型基于相关信息回答

我问了 GPT 如何防止防止看似真实的答案,GPT 自己给了我一些建议:

“我听说GPT有时候会给出看似真实的答案,我要如何避免这种情况呢”

为了避免 GPT 给出看似真实但实际上可能不准确的答案,你可以采取以下几种方法:

  1. 明确提出要求

    在向 GPT 提问时,明确要求其只提供已知的信息或提出其不确定的部分。例如,你可以使用类似以下的指令:

    1. “如果你不确定答案,请告诉我。”
    2. “请仅根据你已知的事实回答这个问题。”
  2. 要求参考来源

    当你向 GPT 提出需要事实支持的问题时,要求其提供参考来源。如果 GPT 无法提供明确的来源,说明该信息可能不准确。

  3. 细分问题

    将问题细化,避免复杂的、模棱两可的问题。这样可以减少 GPT 编造答案的可能性。例如,将一个大问题拆分成几个具体的小问题。

  4. 询问概率或不确定性

    询问 GPT 对于某个答案的信心程度,或明确要求其指出某个回答中的不确定性。

  5. 验证信息

    如果可能的话,将 GPT 提供的信息与其他可信来源进行对比,尤其是当你需要作出重要决策或使用该信息进行进一步操作时。

通过这些方法,你可以更好地过滤和验证 GPT 提供的信息,减少获取虚假或不准确信息的风险。

这一点上 Gemini 在交互上有一点做的很好,它主动提供了通过 Google 搜索回答内容来判定内容是否有依据的按钮。