嘉兴做网站公司,怎么注册公司企业邮箱,网站策划和网站制作,营销型网站建设平台目录
1 Memories 的核心机制
2 向量存储集成
3 RAG#xff08;Retrieval-Augmented Generation#xff09;模式
4 内存管理和优化
5 实际应用#xff1a;一个知识库聊天机器人 在上几篇文章中#xff0c;我们探讨了Semantic Kernel的规划器如何自动化多步任务#xf…目录1 Memories 的核心机制2 向量存储集成3 RAGRetrieval-Augmented Generation模式4 内存管理和优化5 实际应用一个知识库聊天机器人在上几篇文章中我们探讨了Semantic Kernel的规划器如何自动化多步任务让AI像传统工作流一样高效运行。作为一个专注.NET开发的博主我发现Memory机制是让系统真正“聪明”的基础。它不是简单的缓存而是能让AI记住上下文、检索知识就像传统数据库在应用中的角色但添加了语义理解。❝上一篇文章经圣杰大佬的提醒随着fc能力的逐步提升planner已经在官方文档中明确表示即将废弃大家注意一下。接下来我们会从Memory的核心机制开始逐步到向量存储集成、RAG模式、内存管理和实际应用。通过C#示例你能看到如何在项目中落地这些功能比如构建一个知识库系统结合现有SQL数据库提升查询智能。1 Memories 的核心机制Semantic Kernel中的Memory系统分为语义Memory和短期Memory前者存储长期知识后者处理即时上下文。这与传统.NET开发中的持久化存储和会话状态类似但通过嵌入模型Embedding Models实现语义匹配让检索更接近人类思考。语义Memory聚焦于事实、概念和关系比如产品规格或用户偏好。它用向量表示数据允许基于相似度搜索而非精确匹配。到2025年Semantic Kernel已弃用旧的Memory Stores转向Vector Stores这让语义Memory更标准化支持多种数据库。 嵌入模型如Azure OpenAI的text-embedding-ada-002将文本转为高维向量通常1536维存储后能计算相似度。短期Memory则像ChatHistory维护对话状态避免重复输入。它不持久化但能与语义Memory结合比如在聊天中检索长期知识补充响应。这在Web应用中实用你可以用ASP.NET Core的ISession存储短期上下文语义部分推到向量存储。核心机制在于嵌入生成和检索先用模型生成向量存入集合Collection查询时生成查询向量找最近邻。这优化了传统全文搜索的局限能处理模糊查询。在C#中定义数据模型是起点using Microsoft.SemanticKernel.Data; [VectorStoreRecordDefinition] publicclassKnowledgeItem { [VectorStoreRecordKey] publicstring Id { get; set; } [VectorStoreRecordData(IsFilterable true)] publicstring Category { get; set; } [VectorStoreRecordVector(Dimensions 1536, DistanceFunction DistanceFunction.CosineSimilarity, IndexKind IndexKind.Hnsw)] public ReadOnlyMemoryfloat? Embedding { get; set; } }这个模型像Entity Framework的实体但加了向量属性。机制的灵活性让它适合企业应用你能将遗留数据向量化构建智能搜索引擎减少手动过滤代码。Semantic Kernel的Memory还支持混合模式短期Memory引导语义检索比如用户问“上次推荐的产品怎么样”短期回忆对话语义拉取产品详情。这转变开发方式从静态数据访问到动态知识融合。2 向量存储集成向量存储是Semantic KernelMemory的后台支持多种集成从本地In-Memory到云端Azure AI Search或MongoDB Atlas。这让.NET开发者像选择ORM一样选存储配置简单通过NuGet包实现。In-Memory存储适合快速原型或测试无需外部服务using Microsoft.SemanticKernel.Connectors.InMemory; var vectorStore new InMemoryVectorStore(); var collection vectorStore.GetCollectionstring, KnowledgeItem(knowledge); await collection.CreateCollectionIfNotExistsAsync();这像用Dictionary缓存但支持向量操作。实际中在单元测试中用它模拟生产环境避免依赖云。Azure AI Search是企业级选择支持大规模索引和AI增强搜索。 配置需Azure SDKusing Microsoft.SemanticKernel.Connectors.AzureAISearch; var searchClient new AzureSearchIndexClient(new Uri(https://your-search-service.search.windows.net), new AzureKeyCredential(your-key)); var vectorStore new AzureAISearchVectorStore(searchClient); var collection vectorStore.GetCollectionstring, KnowledgeItem(index-name);集成后你能用Azure的内置嵌入生成减少本地计算。MongoDB Atlas类似支持云托管向量using Microsoft.SemanticKernel.Connectors.MongoDB; var client new MongoClient(mongodbsrv://your-connection-string); var database client.GetDatabase(your-db); var vectorStore new MongoDBVectorStore(database); var collection vectorStore.GetCollectionstring, KnowledgeItem(collection-name);这些集成通过抽象IVectorStore统一API让切换存储像换连接字符串一样简单。 在.NET项目中这意味着你能在Startup.cs注册VectorStore服务注入到控制器或服务层实现无缝数据流动。本地存储如SQLite或Postgres也支持向量字段用扩展实现。这在边缘计算或隐私敏感场景中落地比如移动App用SQLite存储用户笔记向量化后智能搜索。整体集成强调可扩展性你能结合传统数据库用SQL存储结构数据向量存储非结构知识桥接两者提升应用智能。3 RAGRetrieval-Augmented Generation模式RAG模式是Memory系统的杀手级应用通过检索增强生成让AI输出更准确、更有据。它先从向量存储检索相关信息再喂给LLM生成响应这避免了模型幻觉类似于传统查询后渲染视图。在Semantic Kernel中构建RAG用VectorStoreTextSearch包装集合using Microsoft.SemanticKernel.TextSearch; using Microsoft.SemanticKernel.Embeddings; var embeddingService kernel.GetRequiredServiceITextEmbeddingGenerationService(); var textSearch new VectorStoreTextSearchKnowledgeItem(collection, embeddingService, item item.Content);然后创建搜索插件var searchPlugin textSearch.CreateWithGetTextSearchResults(SearchKnowledge, new TextSearchOptions { Top 3 }); kernel.ImportPluginFromObject(searchPlugin);在提示中调用{{SearchKnowledge.Search $query}}AI自动检索。 这在C#控制台或Web API中落地比如用户查询“Semantic Kernel最新功能”RAG检索文档片段生成总结。构建完整系统先嵌入数据var item new KnowledgeItem { Id 1, Content Semantic Kernel is an AI framework., Embedding await embeddingService.GenerateEmbeddingAsync(Semantic Kernel is an AI framework.) }; await collection.UpsertAsync(item);查询时var query What is Semantic Kernel?; var results await textSearch.GetTextSearchResultsAsync(query); await foreach (var result in results.Results) { Console.WriteLine(result.Name); // 输出相关文档 }RAG的模式让输出接地气在客服系统中你能检索历史票单生成个性化回复结合传统CRM API提升响应质量。Semantic Kernel的RAG还支持函数调用行为让模型决定何时检索。这在复杂应用中实用比如报告生成先RAG拉数据再规划步骤。4 内存管理和优化内存管理在向量存储中至关重要包括索引构建、相似度计算和隐私保护确保系统高效、安全。索引用HNSWHierarchical Navigable Small World算法加速近似最近邻搜索。在模型定义中指定IndexKind IndexKind.HnswSemantic Kernel自动处理。 这像SQL索引减少查询时间在大集合中从O(n)降到O(log n)。相似度搜索默认CosineSimilarity适合文本向量。你能自定义DistanceFunction优化特定领域如图像。管理还涉及批量操作UpsertBatchAsync批量插入DeleteBatchAsync清理旧数据。这在ETL流程中落地用定时任务维护集合避免膨胀。隐私方面Semantic Kernel支持过滤器字段[VectorStoreRecordData(IsFilterable true)]查询时加条件如category public防止敏感数据泄露。结合Azure的RBAC确保访问控制。优化技巧包括嵌入维度选择低维快但准确低和阈值过滤SearchAsync(new VectorSearchOptions { MinRelevanceScore 0.8 })。在.NET中这集成到服务层你能用Telemetry追踪查询性能调整参数。数据隐私还需加密向量或用私有模型生成嵌入避免云泄露。在合规项目中这让RAG系统符合GDPR实际价值在于企业部署无忧。整体优化让Memory系统从玩具转为生产级你能在高负载App中用它结合缓存短期结果平衡速度和准确。5 实际应用一个知识库聊天机器人现在来个完整应用知识库聊天机器人用向量存储实现RAG查询。这在内部Wiki或客服工具中很常见。先设置Kernel和存储用Azure AI Searchvar kernel Kernel.CreateBuilder() .AddAzureOpenAIChatCompletion(gpt-4o, endpoint, apiKey) .AddAzureOpenAITextEmbeddingGeneration(text-embedding-ada-002, endpoint, apiKey) .Build(); var searchClient new AzureSearchIndexClient(new Uri(endpoint), new AzureKeyCredential(apiKey)); var vectorStore new AzureAISearchVectorStore(searchClient); var collection vectorStore.GetCollectionstring, KnowledgeItem(knowledge-base);嵌入知识var docs new[] { new KnowledgeItem { Id doc1, Content Semantic Kernel supports vector stores for RAG. } }; var embeddings await kernel.GetRequiredServiceITextEmbeddingGenerationService().GenerateEmbeddingsAsync(docs.Select(d d.Content)); for (int i 0; i docs.Length; i) { docs[i].Embedding embeddings[i]; await collection.UpsertAsync(docs[i]); }构建聊天var textSearch new VectorStoreTextSearchKnowledgeItem(collection, kernel.GetRequiredServiceITextEmbeddingGenerationService(), item item.Content); var searchPlugin textSearch.CreateWithGetTextSearchResults(SearchKB); kernel.ImportPluginFromObject(searchPlugin); var history new ChatHistory(); while (true) { Console.Write(User: ); var input Console.ReadLine(); history.AddUserMessage(input); var settings new OpenAIPromptExecutionSettings { ToolCallBehavior ToolCallBehavior.AutoInvokeKernelFunctions }; var response await kernel.GetRequiredServiceIChatCompletionService().GetChatMessageContentAsync(history, settings); Console.WriteLine($AI: {response.Content}); history.AddAssistantMessage(response.Content); }机器人查询时自动RAG模型调用SearchKB检索相关知识生成回答。扩展在Blazor App中做成UI界面用户聊天时后台检索公司文档。优化加过滤器确保隐私批量嵌入新知识。这个应用落地价值大能改造传统搜索框为智能助手减少用户翻页时间。测试中用模拟数据验证召回率确保准确。通过这个案例可以让你看到Memory如何提升交互融合向量存储与聊天。Memory与向量存储让Semantic Kernel更强大我相信在紧密结合传统开发的基础上一定能够开启知识驱动应用开发的新天地。引入地址