微软的语义内核SDK使得管理复杂的提示并从大型语言模型(如GPT)中获得专注的结果变得更加容易。
乍一看,将类似于GPT-4的大型语言模型(LLM)集成到你的代码中似乎很简单。API是一个单次的REST调用,接收文本并根据输入返回响应。但在实际操作中,事情要复杂得多。API可能更适合被视为一个领域边界,你在这里提供提示,定义模型用于输出其结果的格式。但这是一个关键点:LLMs可以是你想要的那么简单或复杂。
当我们将一个AI模型集成到我们的代码中时,我们跨越了两种不同计算方式之间的界限,就像编程量子计算机与设计硬件的方式非常相似一样。在这里,我们正在编写描述模型预期行为的说明,期望其输出符合我们提示中定义的形式。正如量子计算中,Q#语言等构造为传统计算和量子计算机之间提供了桥梁,我们需要工具来封装LLMAPI并提供管理输入和输出的方式,确保模型保持对我们已定义的提示的