MedRAX:基于智能体架构的胸片AI分析框架实战解析
2026/4/26 1:55:27 网站建设 项目流程

1. 项目概述:一个能“看懂”胸片的AI医生助理

如果你是一名放射科医生,或者从事医学影像分析相关的工作,每天面对堆积如山的胸片(Chest X-ray, CXR),心里大概会想:要是有个靠谱的AI助手,能先帮我做一遍初步筛查、定位病灶、甚至生成描述报告,那该多好。过去几年,AI在医学影像领域确实突飞猛进,诞生了无数针对单一任务的“专家模型”,比如专门看肺炎的、专门找结节的、专门分割肺野的。但问题来了,临床上一个真实的病例,医生需要的是综合判断:这片子上到底有没有问题?问题在哪?是什么性质?严重程度如何?这些分散的“专家”就像一个个只会做单项题的学霸,面对复杂的综合应用题,就显得力不从心了。

MedRAX的出现,就是为了解决这个“最后一公里”的问题。它不是一个全新的、从零训练的巨型模型,而是一个智能体框架。你可以把它理解为一个经验丰富的“医疗项目经理”或“首席会诊医生”。它的核心能力不是自己从头学习看片,而是动态调度和协同一系列现有的、最先进的胸片分析工具(视觉问答、分割、分类、报告生成等),结合强大的多模态大语言模型(如GPT-4o)的推理能力,来回答复杂的、多步骤的临床问题。比如,你问它:“请比较患者左右肺的透亮度,并指出是否存在气胸迹象,如果有,请圈出可疑区域。” MedRAX会自己决定:先调用分割工具区分左右肺,再调用分类工具判断有无气胸,最后调用定位工具在图像上标出位置,并用语言模型组织成一段逻辑清晰的回答。

这个由多伦多大学、Vector研究所等单位联合推出的项目,近期入选了ICML 2025,它最大的价值在于实用性和集成性。它基于成熟的LangChain/LangGraph框架构建,提供了开箱即用的Gradio交互界面,支持本地和云端部署。对于医疗AI的研究者、开发者,或是希望探索AI辅助诊断临床可行性的医生来说,MedRAX提供了一个绝佳的、高起点的实验平台和效率工具。接下来,我将带你深入拆解它的设计思路、手把手部署实操,并分享我在搭建和测试过程中积累的一手经验与避坑指南。

2. 核心架构与设计哲学:为什么是“智能体”?

在深入代码之前,理解MedRAX为什么选择“智能体”架构至关重要。这决定了它的能力边界和与以往模型的根本区别。

2.1 从“单一模型”到“多模型协作智能体”

传统的医疗AI模型通常是“端到端”的,给定一张输入图像,输出一个固定的结果(如分类概率、分割掩膜)。这种模式存在几个固有局限:

  1. 任务单一:一个模型通常只擅长一件事。要完成多任务需要串联多个模型,流程僵化。
  2. 灵活性差:无法根据不同的用户问题动态调整分析策略。
  3. 可解释性弱:模型给出一个结论,但中间推理过程如同黑箱。

MedRAX的智能体架构则采用了完全不同的范式。其核心是一个基于大语言模型(LLM)的“大脑”(目前默认是GPT-4o),它负责理解用户的自然语言查询,并将其分解为一系列可执行的子任务。然后,这个“大脑”会从它可用的“工具箱”里,选择最合适的专业工具来执行每个子任务,最后综合所有工具的结果,生成最终答案。

这个“工具箱”里的工具,就是那些 state-of-the-art 的专用模型:

  • CheXagent / LLaVA-Med:负责复杂的视觉问答和医学推理,理解图像中的医学概念。
  • MedSAM / PSPNet:负责精准的解剖结构分割(如肺野、心脏)。
  • Maira-2:负责“接地”,即将文本描述(如“左上肺结节”)在图像上定位出来。
  • SwinV2 Transformer:负责生成结构化的诊断报告。
  • DenseNet-121:负责对18种常见胸部疾病进行分类。
  • RoentGen:甚至可以生成合成胸片,用于数据增强或教学。

这种设计带来了巨大优势:

  • 模块化:工具可以随时插拔、升级。明天有了更好的分割模型,替换掉MedSAM即可,无需改动核心框架。
  • 可解释性:智能体的“思考过程”(调用哪些工具、输入输出是什么)可以被记录和追溯,更符合临床审计的需求。
  • 动态规划:面对“比较两张胸片”的查询,智能体会自动规划出“分别分析A片和B片,然后调用比较模块”的步骤。

2.2 技术栈深度解析:LangChain与LangGraph的妙用

MedRAX选择LangChain和LangGraph作为底层框架,是一个非常务实且高效的选择。这不是简单的追新,而是因为这两个框架的特性完美契合了医疗推理智能体的需求。

  • LangChain:提供了与LLM交互、管理提示词、链接不同工具的基础能力。在MedRAX中,它负责将用户查询、系统指令(定义智能体角色和规则)以及工具的描述封装起来,交给LLM去理解和规划。
  • LangGraph:这是实现复杂、有状态工作流的关键。医疗推理往往不是一条直线,可能需要循环(比如先初步定位,再针对可疑区域进行精细分析)或条件分支(如果检测到积液,则调用分割工具量化体积)。LangGraph允许开发者以图(Graph)的形式定义智能体的决策流程,每个节点可以是一个工具调用或LLM判断,边代表了状态流转的条件。这使得MedRAX能够处理非常复杂的多轮、多步骤临床问答。

medrax/core/agent.pyinitialize_agent函数中,你可以看到这个图的构建过程。系统提示词(system_prompts.txt)定义了智能体的身份(一个辅助放射科医生的AI)、职责和工具使用规范。然后,LangGraph会将这些工具和LLM组合成一个可执行的工作流。这种设计将复杂的逻辑控制从硬编码的if-else语句中解放出来,交给了更擅长规划的语言模型本身。

实操心得:理解系统提示词的重要性很多开发者在定制类似智能体时,只关注工具本身,却忽略了系统提示词的打磨。在MedRAX中,docs/system_prompts.txt文件至关重要。它详细规定了智能体应该如何思考(例如,“你是一个谨慎的助手,不能提供确定性诊断”)、如何选择工具(例如,“当用户询问位置时,优先使用 grounding tool”)、以及如何格式化输出。如果你想让智能体更适应你所在医院的报告风格,或者增加某些特定的安全警告,修改和优化这个提示词是首要步骤。一个精准的提示词,能极大提升工具调用的准确性和回答的规范性。

3. 环境部署与工具配置实战

理论讲完,我们进入实战环节。MedRAX的部署有一定的复杂性,因为它集成了多个独立的大型模型。按照官方指南一步步来,可以避免很多坑。

3.1 基础环境搭建与源码获取

首先确保你的环境满足基本要求:Python 3.8+,以及一个支持CUDA的GPU(强烈推荐,CPU模式会非常慢)。然后克隆代码库并安装依赖。

# 1. 克隆仓库 git clone https://github.com/bowang-lab/MedRAX.git cd MedRAX # 2. 创建并激活虚拟环境(推荐,避免包冲突) python -m venv medrax_env source medrax_env/bin/activate # Linux/macOS # 或 medrax_env\Scripts\activate # Windows # 3. 安装依赖包 pip install -e .

这里的-e参数代表“可编辑模式”安装,这样你修改项目中的任何Python代码,都能立即生效,非常适合后续的开发和调试。

安装过程可能会持续一段时间,因为它会下载LangChain、LangGraph、PyTorch、Transformers等一系列依赖。如果遇到某个包版本冲突,可以尝试先单独安装PyTorch(去官网选择对应CUDA版本的命令),再执行pip install -e .

3.2 模型权重的获取与管理:自动与手动

这是部署中最关键也最耗时的一步。MedRAX的工具所需的模型权重来源分为两类:自动下载手动配置

自动下载的工具(在初始化时自动从Hugging Face拉取):

  • ChestXRayClassifierTool(DenseNet-121)
  • ChestXRaySegmentationTool(PSPNet)
  • XRayPhraseGroundingTool(Maira-2)
  • LlavaMedTool
  • ChestXRayReportGeneratorTool(SwinV2)
  • XRayVQATool(CheXagent)

这些工具在首次初始化时,会检查指定的model_dircache_dir目录下是否有对应权重,如果没有,就会自动从Hugging Face下载。你需要做的就是确保网络通畅,以及磁盘有足够空间(总计大约几十GB)。

需要手动配置的工具

  • ChestXRayGeneratorTool(RoentGen):这个模型用于生成合成胸片,由于其许可限制,权重不能自动分发。你需要按照项目README的指引,联系斯坦福MIMI实验室的作者获取权重,然后手动放置在{model_dir}/roentgen目录下。如果不需要图像生成功能,可以直接在初始化工具列表里注释掉它。

配置核心文件main.py: 运行MedRAX的核心是main.py脚本。你需要修改其中几个关键路径:

# 在 main.py 中找到类似以下部分进行修改 model_dir = "/path/to/your/model/weights" # 替换为你的大容量存储路径,用于存放所有模型 temp_dir = "/tmp/medrax" # 临时文件目录,确保有写入权限 # 在 initialize_agent 调用中指定工具列表,可以注释掉你暂时不需要或没有权重的工具 selected_tools = [ "ImageVisualizerTool", "DicomProcessorTool", "ChestXRayClassifierTool", "ChestXRaySegmentationTool", "XRayPhraseGroundingTool", # "ChestXRayGeneratorTool", # 如果还没有RoentGen权重,先注释 "LlavaMedTool", "ChestXRayReportGeneratorTool", "XRayVQATool", ]

注意事项:磁盘空间与网络

  • 空间预估:建议为model_dir预留至少 50-100GB 的可用空间。LLaVA-Med、CheXagent等视觉语言模型体积庞大。
  • 网络问题:国内下载Hugging Face模型可能会很慢或中断。有两个解决方案:1)使用镜像源,在代码中或环境变量设置HF_ENDPOINT=https://hf-mirror.com;2)先行通过huggingface-cli download命令在网络好的环境下下载好所有所需模型(模型ID可以在各个工具的源代码中查找),再放到model_dir对应位置。
  • 权限问题:确保运行Python脚本的用户对model_dirtemp_dir有读写权限。

3.3 API密钥与本地LLM配置

MedRAX默认使用OpenAI的GPT-4o作为推理“大脑”。你需要一个有效的OpenAI API密钥。

  1. 设置OpenAI API密钥: 在项目根目录创建一个名为.env的文件(注意开头有个点),内容如下:

    OPENAI_API_KEY="sk-your-actual-openai-api-key-here"

    系统会自动读取这个文件。切勿将此文件提交到任何版本控制系统。

  2. 使用本地LLM(可选但重要): 考虑到医疗数据的隐私性以及API调用的成本,在本地部署LLM是更可行的方案。MedRAX兼容任何提供OpenAI兼容API的本地服务。

    • 使用Ollama:首先在本地运行Ollama,并拉取一个视觉能力强的模型,如llava:7bbakllava
      ollama run llava:7b # Ollama 默认会在 11434 端口提供API服务
      然后,在启动MedRAX前,设置环境变量:
      export OPENAI_BASE_URL="http://localhost:11434/v1" export OPENAI_API_KEY="ollama" # 这里可以是任意非空字符串,Ollama不验证 export OPENAI_MODEL="llava:7b" # 指定你运行的模型名称
    • 使用其他云服务:如果你使用阿里云灵积、DeepSeek等提供兼容OpenAI API的服务,只需相应地修改OPENAI_BASE_URLOPENAI_API_KEY即可。

    修改后,再次运行python main.py,智能体就会使用你配置的本地或替代LLM。需要注意的是,本地小规模视觉语言模型的推理和规划能力远不及GPT-4o,可能会影响复杂任务的执行效果,但对于简单的问答和工具调用,已经足够演示和内部测试。

3.4 启动与测试

完成所有配置后,就可以启动Gradio交互界面了。

python main.py

如果遇到端口冲突(默认是7860),可以在main.py中修改launch()函数的参数。

启动后,在浏览器中打开http://localhost:7860,你会看到一个简洁的界面。上传一张胸片图片(支持JPG、PNG,甚至DICOM文件),在文本框中输入你的问题,例如:“这张胸片有什么异常?” 或 “请分割出肺部区域并计算心脏胸廓比。”,点击提交,就能看到MedRAX的思考过程和最终答案了。

4. 核心工具链深度剖析与使用技巧

MedRAX的强大,建立在它集成的每一个专业工具之上。了解每个工具的能力、局限和最佳使用场景,能帮助你更好地提出问题和解读结果。

4.1 视觉理解与问答双雄:CheXagent vs. LLaVA-Med

这是两个最重要的“视觉问答”工具,但侧重点不同。

  • XRayVQATool(基于CheXagent):这是一个专门为胸部X光片问答微调过的模型。它在医学术语的准确性和对胸片特定征象的理解上表现更专业。适合处理纯粹的、聚焦于影像发现的医学问答,比如“是否存在肺水肿征象?”、“心胸比是否增大?”。
  • LlavaMedTool(基于LLaVA-Med):这是一个通用的医学视觉语言模型,训练数据涵盖多种医学影像。它的泛化能力可能更强,对于非标准问题或需要一些常识推理的问题可能更有优势。适合处理更开放、需要结合一般医学知识的问题

实操心得:如何选择?在我的测试中,对于典型的胸片解读,CheXagent的答案通常更严谨、专业术语使用更准确。而LLaVA-Med有时会给出更详细的描述,但偶尔也会“臆想”一些不存在的细节。建议的做法是:在selected_tools列表中同时保留两者。智能体在规划时,会根据问题语义自动选择。你也可以在系统提示词中增加倾向性,例如:“当问题涉及具体的胸片征象(如Kerley B线、气液平面)时,优先使用CheXagent工具。”

4.2 定位与分割:从“有什么”到“在哪里”

这是将文本描述与图像空间关联起来的关键能力。

  • XRayPhraseGroundingTool(基于Maira-2):它的任务是根据一句文本描述(如“左上肺的斑片影”),在图像上框出(Bounding Box)最可能对应的区域。这个功能对于生成可交互的报告至关重要,能直接“指”给医生看。注意:它的输出是一个矩形框,不是像素级精确的分割。
  • ChestXRaySegmentationTool(基于PSPNet):它提供像素级的分割掩膜,目前主要用于分割肺野。这对于定量分析(如计算肺野面积、心脏胸廓比)是必不可少的。期待更新:未来集成MedSAM后,将能分割更多解剖结构(如心脏、肋骨)和病灶。

使用场景对比

任务类型推荐工具输出形式示例问题
描述性定位PhraseGrounding边界框“请圈出胸腔积液的位置。”
定量测量Segmentation像素掩膜“请分割双肺野,并计算其面积。”
综合任务两者协同框+掩膜+文本“定位肺炎区域,并分割出受影响的肺叶。” (需智能体规划多步)

4.3 分类与报告生成:从感知到表述

  • ChestXRayClassifierTool(基于DenseNet-121):这是一个快速筛查工具,能同时输出18种常见胸部疾病的概率(如肺炎、气胸、水肿等)。它的速度很快,适合作为智能体分析流程的“第一站”,提供一个全局的异常提示。注意:分类结果应视为参考,尤其是概率值处于中间范围时,需要结合其他工具综合判断。
  • ChestXRayReportGeneratorTool(基于SwinV2):这个工具能直接生成一段结构化的文本报告,通常包括“检查技术”、“对比”、“发现”和“印象”等部分。它模拟了放射科报告的格式。重要提示:生成的报告是基于图像内容生成的描述,而不是对分类工具结果的简单转述。两者可以相互印证。

4.4 工具编排的实战案例解析

让我们通过一个复杂查询,拆解MedRAX内部的运作流程。假设用户上传一张胸片并提问:“患者是否有气胸?如果有,请评估其严重程度(大致估算肺压缩比例),并在图像上标出气胸区域。

  1. 规划阶段:LLM(大脑)收到查询后,分析出需要完成三个子任务:a) 检测气胸是否存在;b) 若存在,评估严重性;c) 进行视觉定位。
  2. 工具调用与执行
    • 步骤A:大脑可能首先调用ChestXRayClassifierTool,获取“气胸”的分类概率。如果概率很高,则确认存在。
    • 步骤B:评估严重程度需要量化。大脑可能会规划调用ChestXRaySegmentationTool来分割患侧肺野(假设分类工具也给出了左右侧信息),然后估算被压缩的肺组织面积。这里就体现了智能体的优势:它知道“评估压缩比例”这个任务没有现成工具,但它可以组合“分割”和“逻辑计算”来近似完成。它可能会在后续的文本回答中描述:“根据分割结果,患侧肺野体积明显缩小,估计压缩比例约30%。”
    • 步骤C:大脑调用XRayPhraseGroundingTool,输入“气胸区域”,让该工具在图像上生成一个定位框。
  3. 综合回答:大脑收集所有工具的结果(分类概率、分割掩膜的分析结论、定位框),组织成一段连贯、专业的回答,并附上可视化结果(标注了框的图像)。

整个流程在后台通过LangGraph自动执行,用户看到的就是一个最终的综合答案。这种动态规划能力,是固定流水线系统无法比拟的。

5. 自定义扩展与高级应用指南

MedRAX的模块化设计允许你对其进行深度定制,以适应特定的研究或临床需求。

5.1 集成新的专业工具

假设你的团队开发了一个更精准的肋骨骨折检测模型,并想将其集成到MedRAX中。你需要遵循以下步骤:

  1. 创建工具类:在medrax/tools/目录下新建一个Python文件,例如rib_fracture_detection_tool.py。你的工具类必须继承自BaseTool,并实现几个关键方法:
    from medrax.tools.base import BaseTool from pydantic import Field from typing import Type, Any class RibFractureDetectionTool(BaseTool): name: str = "RibFractureDetector" description: str = """ 用于检测胸部X光片中的肋骨骨折。输入一张X光图像,输出骨折的位置(如‘第5肋后肋’)和置信度。 """ # 定义工具的输入参数模型 class InputSchema(BaseModel): image_path: str = Field(description="待检测的胸片图像路径") def __init__(self, device="cuda", model_path=None): super().__init__() self.device = device # 在这里加载你的骨折检测模型 self.model = load_your_model(model_path, device) def run(self, input_data: InputSchema) -> str: """核心执行逻辑""" image = load_image(input_data.image_path) # 调用你的模型进行预测 fractures = self.model.predict(image) # 将结果格式化为字符串,供LLM理解 result_str = f"检测到{len(fractures)}处肋骨骨折:\n" for f in fractures: result_str += f"- 位置:{f['location']}, 置信度:{f['confidence']:.2f}\n" return result_str async def arun(self, input_data: InputSchema) -> str: # 如果需要异步支持,实现此方法 return self.run(input_data)
  2. 注册工具:在medrax/tools/__init__.py中,导入你的新工具类,并将其添加到__all__列表和工具注册表中(如果项目有统一的注册机制)。
  3. 更新系统提示词:修改docs/system_prompts.txt,在工具描述部分加入你的新工具的名称和功能描述,这样LLM才知道在什么情况下调用它。
  4. 在初始化时启用:在main.pyselected_tools列表中加入"RibFractureDetectionTool"

5.2 使用ChestAgentBench进行量化评估

如果你想客观衡量MedRAX或你自己定制版本的能力,一定要使用作者团队提供的ChestAgentBench基准测试集。

  1. 下载基准数据
    huggingface-cli download wanglab/chestagentbench --repo-type dataset --local-dir ./chestagentbench cd ./chestagentbench unzip figures.zip -d ../assets/ # 将测试图片解压到项目指定目录
  2. 运行评估脚本:项目提供了quickstart.py脚本用于评估。你需要根据你使用的LLM进行配置。
    # 评估GPT-4o(需设置API_KEY) export OPENAI_API_KEY="your_key" python quickstart.py --model chatgpt-4o-latest --max-cases 10 --log-prefix my_eval # 评估本地Ollama模型 export OPENAI_BASE_URL="http://localhost:11434/v1" export OPENAI_API_KEY="ollama" python quickstart.py --model llava:7b --max-cases 5 --log-prefix my_local_eval
    评估脚本会自动运行benchmark中的病例,并将智能体的回答与标准答案进行比较,生成性能指标(如准确率、召回率等)。这对于比较不同工具组合或不同LLM“大脑”的效果至关重要。

5.3 生产环境部署考量

将MedRAX用于临床前测试或研究流水线,需要考虑更多工程问题:

  • 性能优化
    • 模型加载:所有工具在首次初始化时加载模型耗时很长。可以考虑实现一个常驻服务,将工具类作为后台服务启动,通过RPC或HTTP API供智能体调用,避免每次启动都重复加载。
    • 推理加速:使用半精度(fp16)、8比特或4比特量化来减少模型内存占用和加速推理。许多工具(如LLaVA-Med)在初始化时已支持load_in_8bit=True参数。
    • 缓存:对于相同的图像和查询,可以引入缓存机制,避免重复计算。
  • 安全与合规
    • 数据隐私:确保所有处理都在安全的内部服务器上进行。使用本地LLM是避免患者数据外传的关键。
    • 审计日志:利用LangGraph的流程记录功能,详细保存每一次问答的完整“思维链”(工具调用顺序、输入输出),这对于临床审核和模型调试不可或缺。
    • 输出免责:必须在系统提示词和交互界面中明确强调,本系统为辅助工具,输出结果仅供参考,不能作为最终诊断依据。

6. 常见问题排查与实战经验分享

在部署和测试MedRAX的过程中,我遇到了不少典型问题,这里汇总一下解决方案。

6.1 安装与依赖问题

问题现象可能原因解决方案
pip install -e .失败,提示Torch版本冲突PyTorch与CUDA版本不匹配,或与其他包冲突。1. 先根据你的CUDA版本,从PyTorch官网安装正确版本的PyTorch和torchvision。
2. 再使用pip install -e . --no-deps安装项目其他依赖(需手动处理缺失包)。
运行main.py报错,提示缺少langchainlanggraph模块虚拟环境未激活,或依赖未安装成功。1. 确认已激活虚拟环境。
2. 尝试pip install langchain langgraph单独安装核心依赖。
导入错误:ImportError: cannot import name 'BaseTool' from 'medrax.tools.base'项目结构或安装有问题。在项目根目录下执行pip install -e . --force-reinstall强制重新安装。

6.2 模型加载与运行问题

问题现象可能原因解决方案
工具初始化时卡住或报网络错误自动下载Hugging Face模型失败(网络问题)。1. 设置镜像:export HF_ENDPOINT=https://hf-mirror.com
2. 手动下载:找到工具代码中的模型ID(如llava-hf/llava-med-7b),用huggingface-cli download提前下载到model_dir
内存溢出(OOM)错误同时加载多个大模型,显存不足。1.选择性初始化:在main.py中只启用当前必需的工具。
2.使用量化:确保LlavaMedToolXRayPhraseGroundingTool初始化时设置了load_in_8bit=True
3.使用CPU:对于非核心工具,可设置device='cpu',但速度会慢很多。
Gradio界面正常,但提问后长时间无响应LLM(如GPT-4o)API调用超时或失败;或某个工具运行异常。1. 检查.env文件中的OPENAI_API_KEY是否正确,网络是否能访问OpenAI。
2. 查看命令行终端的日志输出,通常会有详细的错误信息,定位是哪个工具报错。
3. 尝试一个更简单的问题(如“描述这张图片”),排除复杂规划导致的问题。

6.3 功能与输出问题

问题现象可能原因解决方案与理解
智能体拒绝回答,或给出“我无法提供医疗建议”的通用回复。系统提示词中设置了过于保守的安全限制。修改docs/system_prompts.txt,调整关于角色和职责的表述。例如,明确其作为“研究辅助工具”的定位,并指导其在提供信息时使用“影像表现提示...可能”等措辞,而非直接诊断。
定位框(Grounding)不准确,或分割区域错误。底层模型(Maira-2, PSPNet)的局限性;或图像质量、拍摄体位不标准。这是当前模型的通病。重要认知:MedRAX集成的工具代表了当前水平,但并非完美。其结果必须由专业人员复核。可以尝试在提问时使用更精确的解剖学术语(如“右肺上叶”而非“右上肺”)。
对于复杂的、多步骤的查询,智能体只执行了部分任务或给出了混乱的答案。LLM的规划能力不足(尤其是使用较小的本地模型时)。1.升级LLM:尽可能使用能力更强的LLM作为大脑。
2.简化查询:将复杂问题拆分成多个简单问题依次提问。
3.优化提示词:在系统提示词中提供更清晰的工具调用范例和规划指南。

最后一点个人体会:MedRAX是一个强大的框架,但它目前的“开箱即用”效果,高度依赖于作为“大脑”的LLM的能力。GPT-4o的表现令人印象深刻,能够进行非常合理的工具规划和结果综合。而换用较小的开源模型时,性能下降是明显的。这提示我们,在医疗等高风险领域,推理的可靠性优先于成本的节约。未来的一个关键方向,就是如何蒸馏或训练出既专业可靠、又能够私有化部署的“小大脑”。MedRAX已经搭好了舞台,如何让台上的“演员”(各个工具)和“导演”(LLM大脑)都变得更出色,就是我们接下来要努力的方向了。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询