模型服务
LinkAI是基于大语言模型(LLM)和其他功能模型的AI应用开发平台。根据使用场景的不同,主要分为以下几类:
1. 文本对话模型
也就是通常所说的大语言模型。在智能对话生成、知识库问答、一键创建应用等场景使用的就是该类模型,也是AI应用中最主要的模型类别。你可以在创建的应用中配置需要使用的模型,或者在创建的工作流(使用到大语言模型的)节点中配置需要使用的模型。
- 目前支持的 通用大模型 有:
linkAI-3.5
linkAI-4
linkAI-4-turbo
linkAI-4o
linkAI-4o-mini
、Claude系列
Gemini系列
、wenxin(文心一言)系列
、qwen(通义千问)系列
、xunfei(讯飞星火)
、Chat-GLM(智谱)
、doubao(豆包)系列
、kimi(月之暗面)系列
(1) - 支持的 行业大模型 有:通义法睿法律大模型
- 使用模型的方法是:在【应用配置】-【模型设置】中设置默认模型,该模型将在网页端对话时默认使用,以及将应用接入渠道提供服务时使用;设置对话可选模型,这些模型在调试、对话,或在应用广场中由其他用户对话使用时,可供切换选择。可阅读 应用配置-模型设置 了解更多。
不同模型的参数类型、能力表现会不一样。一般来说,模型的参数越大,理解应用设定(提示词)及推理的能力越强,但输出速度越慢。例如,qwen系列模型中qwen-turbo、qwen-plus、qwen-max的模型参数依次提升,推理能力依次提升,但响应速度递减,成本递增。你可以根据不同情景的使用场景,结合成本的考虑,选择适合的模型使用。
模型服务资费详见计费规则。
注1 : 使用Kimi模型时采用根据上下文长度动态切换的策略。当不超过「应用配置-模型设置」中的最大上下文长度阈值时,系统将根据每次提问的总token数(应用设定+历史对话记忆+知识库检索内容+用户提问)动态选择适合的模型。
例如:模型设置为Kimi,上下文长度阈值设置为128K,当提问的总token数未超过8k时,将使用Kimi-8K模型回答;超过8K且未超过32K时,将自动使用kimi-32K模型回答;超过32K且未超过128K时,将自动使用kimi-128K模型回答。
2. 文生图模型
LinkAI的文生图模型是通过画图插件的方式提供服务,目前支持DaLL-E 3模型、Midjunery模型、豆包文生图模型。在应用中开启对应的插件,或在工作流插件节点中选择对应的插件即可使用,可阅读 插件 了解更多。
3. 图像识别模型
LinkAI的图像识别模型同样通过图像识别插件的方式提供,目前支持OpenAI图像识别模型、Claude图像识别模型、通义千问图像识别模型,以及OCR图像识别模型。在应用中开启图像识别插件并配置需要的模型,或在工作流插件节点中选择并配置即可使用,可阅读 插件 了解更多。
4. 语音模型
在LinkAI网页端、接入渠道端进行语音所使用的模型。其中,语音识别模型为系统默认,语音合成模型目前支持:OpenAI、豆包、百度。
5. 知识库Embedding模型
处理上传的知识库数据并嵌入向量数据库,以及将用户的提问内容向量化与知识库匹配所使用的的模型。该模型无需手动选择,已内置在知识库功能中。