封面图片: Dalle3 - 反射狐

反射助你无痛使用Semantic Kernel接入离线大模型-LMLPHP

1. 引言

随着 AI 技术的快速发展,越来越多的开发者和企业开始利用 Semantic Kernel 来接入离线大模型,以此获取更精准的自然语言处理能力。SK 框架提供了一种解决方案,可以在编程中更加有效地利用大语言模型来解决复杂的问题。然而,许多开发者在使用过程中都遇到了一个共同的问题:无法将 Semantic Kernel 的 OpenAIClient 配置为连接到自定义端点。

2. 问题背景

在默认情况下,Semantic Kernel的OpenAIClient类被配置为连接到Azure OpenAI的官方端点。这对于大部分用户来说是没有问题的,但对于某些特殊场景的用户来说,这成了一个难题。比如,某些企业或个人无法直接访问OpenAI的官方端点,他们需要使用一个中间服务器进行过滤(如安全审计,内部令牌使用成本分配等),然后将请求转发到OpenAI。对于这些用户来说,能够指定OpenAIClient的端点是非常重要的。

另外,许多开发者希望能够使用像 vLLM, llama.cpp 等技术的托管开源模型,这些模型的端点与 Azure OpenAI 的端点不同,因此也需要能够指定端点的功能。

3. llama 的 server 服务部署与问题复现

其实前面的问题由来已久,作为一个饕餮,虽然早早的 start 了 Semantic Kernel 库,但是我也是养了很久才开始食用的。在使用的过程中,我很自然的从文档的快速开始尝试跑第一个示例。示例中使用的是 Azure OpenAI 的服务,虽然在去年四月份我就有了 GPT-4 的访问权限,但如果用作测试和折腾的话还是离线的更有性价比呀,然后就造成了我第一步就遇到了些许麻烦。

3.1 llama 的 server 服务部署

llama.cpp 项目中,有一个示例的 server 服务,可以用来部署离线大模型。在项目的 README 中,有详细的部署步骤,这里就不再赘述了。如果你不想自行编译,或过程中遇到各种问题,可以直接在 releases 中找到编译好的二进制文件。下载或编译成功后,我们可以通过以下命令来启动 server 服务:

./server.exe -m models/qwen1_8b-gguf.bin -c 2048 -ngl 20 --port 8000 -a qwen

其中,-m 参数指定了模型的路径,-c 参数指定了模型的上下文长度,-ngl 参数表示你想让多少个层的计算在GPU上进行,在使用CLBlast或cuBLAS编译的二进制文件时,通常可以提高性能,--port 参数指定了服务的端口,-a 参数指定了模型的名称。启动成功后,我们就可以打开浏览器,访问 http://localhost:8000 来测试服务是否正常运行。

server 服务提供的API是类似于 OpenAI 的 API 的,可以在 READNE 中找到详细的说明。

反射助你无痛使用Semantic Kernel接入离线大模型-LMLPHP

3.2 问题复现

在启动 server 服务后,我们就可以在 Semantic Kernel 中使用了。在 Semantic Kernel 的文档中,有一个示例,可以用来测试是否可以正常连接到 Azure OpenAI 的服务。我们可以将这个示例稍作修改,来测试是否可以连接到我们自己的 server 服务。以下是修改后的示例代码:

var builder = Kernel.CreateBuilder();
var aiclietn =  new OpenAIClient(
            new Uri("http://127.0.0.1:8000/v1"),
            new Azure.AzureKeyCredential("empty")
        );
builder.AddOpenAIChatCompletion("qwen",aiclietn);
var kernel = builder.Build();
// ... 省略部分代码

在修改后的示例代码中,我们将 OpenAIClient 的端点指定为了我们自己的 server 服务的端点。但是事情并没有像我们想象的那样顺利,我们在运行示例代码时,会遇到以下错误:

Unhandled exception. Microsoft.SemanticKernel.HttpOperationException: Service request failed.
Status: 404 (Not Found)

Content:
File Not Found
...

通过服务端的控制台日志,我们可以看到,服务端收到了请求,但是却返回了 404 错误。这是因为 OpenAIClient 的默认端点是 Azure OpenAI 的端点,而我们的 server 服务并不是 Azure OpenAI 的端点,因此会返回 404 错误。

{"timestamp":1705215286,"level":"INFO","function":"log_server_request","line":2731,"message":"request","remote_addr":"127.0.0.1","remote_port":6274,"status":404,"method":"POST","path":"/v1/openai/deployments/qwen/chat/completions","params":{"api-version":"2023-12-01-preview"}}

4. 解决方案

4.1 问题分析

OpenAIClientAzure.AI.OpenAI 库提供的,通过其源码我们不难发现,其 OpenAI 的服务地址是固定的我们无法修改,如果指定了endpoint,那么也就是意味着我们默认使用了 Azure OpenAI 的服务,其私有的变量_isConfiguredForAzureOpenAI将为true。下面的代码,则是该库中请求路径拼接的相关函数:

internal RequestUriBuilder GetUri(string deploymentOrModelName, string operationPath)
{
    RawRequestUriBuilder rawRequestUriBuilder = new RawRequestUriBuilder();
    rawRequestUriBuilder.Reset(_endpoint);
    if (_isConfiguredForAzureOpenAI)
    {
        rawRequestUriBuilder.AppendRaw("/openai", escape: false);
        rawRequestUriBuilder.AppendPath("/deployments/", escape: false);
        rawRequestUriBuilder.AppendPath(deploymentOrModelName, escape: true);
        rawRequestUriBuilder.AppendPath("/" + operationPath, escape: false);
        rawRequestUriBuilder.AppendQuery("api-version", _apiVersion, escapeValue: true);
    }
    else
    {
        rawRequestUriBuilder.AppendPath("/" + operationPath, escape: false);
    }

    return rawRequestUriBuilder;
}

问题的根源找到了,那么解决方案也就呼之欲出了,我们只需要将_isConfiguredForAzureOpenAI设置为false,就可以指定端点了。但是这个事情并没有那么简单,因为_isConfiguredForAzureOpenAI是一个私有的变量,我们无法直接修改它的值。虽然项目是开源的,但是我们也不可能去修改源码,然后自己编译一个库,这样做的事情有些复杂了。

4.2 解决方案:反射

那么有没有什么办法可以修改私有变量的值呢?答案是肯定的,那就是反射。虽然通过源码我们可以发现这个OpenAIClient类使用了partial关键字,partial关键字允许你将一个类、结构或方法的定义分散在多个文件中。然而,要注意的是,partial关键字只能在同一个程序集(即同一个DLL或EXE)中的文件之间使用。

要修改私有变量的值,使用反射就没有这种限制了。反射是.NET框架提供的一种强大的技术,它允许我们在运行时获取类型的信息,并操作这些类型的成员(如类的字段和方法)。具体来说,我们可以使用反射来修改OpenAIClient类的私有字段_isConfiguredForAzureOpenAI的值。当这个字段的值被设置为false时,OpenAIClient将能够连接到任何端点,从而解决了我们的问题。关于反射的更多信息可以参考官方文档的高级主题:反射

在.NET中,我们可以使用System.Reflection命名空间中的类来进行反射操作。以下是一个简单的例子,演示了如何使用反射修改_isConfiguredForAzureOpenAI的值:

using Azure.AI.OpenAI;
using Microsoft.SemanticKernel;
using Microsoft.SemanticKernel.Connectors.OpenAI;
using System.Reflection;

var builder = Kernel.CreateBuilder();
var aiclietn =  new OpenAIClient(
            new Uri("http://127.0.0.1:8000/v1"),
            new Azure.AzureKeyCredential("empty")
        );
// 获取_isConfiguredForAzureOpenAI字段的引用
var field = typeof(OpenAIClient).GetField("_isConfiguredForAzureOpenAI", BindingFlags.NonPublic | BindingFlags.Instance);
// 修改_isConfiguredForAzureOpenAI字段的值
if (field != null)
{
    field.SetValue(aiclietn, false);
}

builder.AddOpenAIChatCompletion("qwen",aiclietn);
// ... 省略部分代码

修改完成后,我们使用 dotnet run 命令运行示例代码,就可以看到我们的示例代码终于跑起来了。

反射助你无痛使用Semantic Kernel接入离线大模型-LMLPHP

4.3 更好的解决方案:修改源码

虽然反射可以解决我们的问题,但它并不是最佳的解决方案。反射操作可能会引入一些额外的复杂性和性能开销,而且它依赖于私有字段的名称,如果未来这个名称发生改变,我们的代码就可能会失效。

一个更好的解决方案是直接在OpenAIClient类的源码中添加一个公共方法,用于设置_isConfiguredForAzureOpenAI的值。这样,我们就可以直接调用这个方法来修改字段的值,而不需要使用反射。我已经在GitHub上提交了一个修改,添加了这样一个方法:

public void SetIsConfiguredForAzureOpenAI(bool value)
{
    _isConfiguredForAzureOpenAI = value;
}

5. 最后

通过反射和源码修改,我们成功解决了Semantic Kernel接入离线大模型的问题。这个解决方案将使Semantic Kernel能够与像vLLM, llama.cpp等技术的托管开源模型进行交互,同时也允许应用程序指定端点,满足了大家迫切的需求,希望这篇文章能对你有所帮助。

最后推荐一些学习Semantic Kernel的资料:

01-19 05:21