在人工智能(AI)的世界中,一个重要问题是如何避免生成虚假信息。最近,约翰·霍普金斯大学的研究人员发现,一种简单的技术可以在大型语言模型(LLM)中减少幻觉并提高答案的准确性。这项研究为改进语言模型的质量和可靠性提供了一个简单有效的方法。

研究人员通过添加两个词——“根据”和“维基百科”等基础提示词,成功地减少了大型语言模型中的幻觉。他们使用QUIP分数指标对语言模型的回答进行审查,发现当在查询中加入这些基础提示词时,引用信息的准确性可以提高5-15%。这种技术尤其在较大的指令调整模型中表现出色。

这种技术的核心在于,通过使用基础提示词,大型语言模型更有可能引用观察到的文本并提供真实的事实信息,而不是虚构的答案。这是因为,当模型在生成答案时,它会根据已有的信息进行推理。如果这些信息是基于错误的或不完整的理解,那么模型可能会生成错误或不准确的答案。而通过添加基础提示词,模型就可以得到更多的信息来进行推理,从而生成更准确的答案。

这一发现有助于提高人工智能系统的可信度和准确性,并减少系统产生虚假信息的情况。然而,研究人员也指出,这种技术在不同的语言模型和应用场景中可能会有所不同,需要进一步的研究和优化。

总的来说,这项研究为我们提供了一个新的视角来看待AI的问题。通过添加基础提示词,我们可以让AI更好地理解我们的意图,从而生成更准确的答案。这种方法不仅可以提高AI的性能,也可以提高我们对AI的信任度。在未来,我们期待看到更多类似的研究,以进一步提高AI的性能和可信度。