Advertisement

基于ChatGLM-6B的中文医疗咨询模型.zip

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
该压缩包包含了一个基于ChatGLM-6B架构优化和训练的中文医疗咨询AI模型,专为提供准确、专业的医疗建议而设计。 基于大语言模型的调优,实现了一个中文医学问诊系统。该系统包含整理的数据集以及预训练模型,并提供了问答示例。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • ChatGLM-6B.zip
    优质
    该压缩包包含了一个基于ChatGLM-6B架构优化和训练的中文医疗咨询AI模型,专为提供准确、专业的医疗建议而设计。 基于大语言模型的调优,实现了一个中文医学问诊系统。该系统包含整理的数据集以及预训练模型,并提供了问答示例。
  • ChatMed: 擅长解答用户日常语言
    优质
    ChatMed是一款专为中文用户提供日常医疗咨询服务的先进语言模型。它能有效地回答用户的健康问题,提供实用建议,但不能替代专业医生的意见。 以ChatGPT、GPT-4为代表的大型语言模型(LLM)在自然语言处理领域引发了新一轮的研究热潮,并展现了接近通用人工智能(AGI)的能力,因此受到了业界的广泛关注。 为了促进LLM在中文医疗领域的应用和发展,提升其医疗知识和医学咨询回答能力,我们推出了ChatMed系列中文医疗大规模语言模型。
  • ChatGLM-6B大语言问诊应用(人工智能)
    优质
    本研究探讨了基于ChatGLM-6B的大规模预训练语言模型在处理中文医疗咨询场景的应用潜力,旨在提升在线问诊服务的质量和效率。 对于Lora模型的使用要求显存大于等于13G(未量化版本)。安装所需库命令如下: ``` pip install deep_training cpm_kernels icetk transformers>=4.26.1 torch >= 1.12.0 (icetk依赖cpu版torch, 建议先安装icetk后安装gpu版torch) ``` Lora的finetune代码可以从相关项目中获取。对于fp16模型,可以直接使用Doctor_GLMchat_lora.ipynb文件,由于官方更新了ChatGLM的权重,老版权重被放置在old_pretrain_model目录下供下载和解压。 针对量化的模型我们已经打包好以方便使用,但目前效果不尽如人意:INT4需要大约6G显存,INT8则需大约8G显存,在Doctor_GLMchat_lora_quant.ipynb文件中可以找到相关操作。
  • SpringBoot在线服务网站设计与实现.zip
    优质
    本项目旨在设计并开发一个基于Spring Boot框架的在线医疗咨询服务网站,提供便捷高效的线上问诊服务。系统采用Java技术栈,并结合MySQL数据库进行数据存储和管理。通过简洁友好的用户界面,患者可以轻松预约医生、在线咨询以及查询个人健康档案等;同时为医生提供了查看病人信息及回复咨询的功能模块。该平台致力于改善医疗服务体验,优化医疗资源分配,促进医患沟通。 基于Java的在线医疗咨询网站的设计与实现 开发语言: 前端:HTML、CSS、JavaScript。 后端:SpringBoot、MyBatis。 该系统共分为3个角色。 (1)患者 - 登录、注册、注销; - 填写个人信息。(在注册时填写) - 查看病历和诊疗记录;(查看以往就诊记录) - 在线聊天功能,可上传图片;(以留言板的形式进行) - 浏览医生简介,并选择合适的医生。 (首先预约科室页面跳转到医生列表页,在选定医生后进入其个人介绍页面,该页面底部设有挂号按钮,点击之后引导至填写症状信息的界面,需提交有效内容才能继续,最后在等待排队期间可以与医生进行在线交流)
  • ChatGLM-6B项目
    优质
    ChatGLM-6B项目是由清华大学计算机系自然语言处理与社会人文计算小组研发的大规模预训练模型,适用于对话和多种自然语言任务。 内容概要:这是一个关于chatglm-6b项目的源代码,可以轻松在自己的电脑上部署大模型。用户只需输入问题并点击提交按钮即可获取所需答案。 技术方案: - 后端使用Python开发; - 前端采用HTML构建; - 使用Nginx进行前端部署。 适合人群:无任何基础的新手、具备一定编程经验的人士,包括学生和工作1至3年的研发人员以及从事语音识别开发的工程师或科研工作者等。 能学到什么: 用户可以快速在本地环境中体验大模型的功能与效果。 阅读建议:如对源代码有任何疑问,请直接联系作者。
  • ChatGLM-6B和LoRA微调方案
    优质
    本研究提出了一种基于ChatGLM-6B模型结合LoRA技术的高效微调方法,旨在减少计算资源需求的同时保持模型性能。 ChatGLM-6B + LoRA的Fintune方案是一种深度学习模型微调技术,用于在金融领域的对话生成任务上优化预训练模型。这个方案结合了两个关键组件:ChatGLM-6B,一个大规模的语言模型,以及LoRA(低秩适应),一种高效的模型更新方法。 **ChatGLM-6B** ChatGLM-6B是阿里云开发的一款超大规模语言模型,拥有60亿参数,旨在生成自然、流畅的人机对话。通过在大量无标注文本数据上进行预训练,该模型学会了丰富的语言结构和语义知识。它能够理解上下文、处理复杂对话,并支持多种场景如客户服务与智能助手等。在金融领域中,ChatGLM-6B可以用于处理复杂的查询请求、提供投资建议或解释各类金融产品。 **LoRA(低秩适应)** LoRA是阿里云提出的一种针对大型预训练模型的微调策略。传统的全参数调整方法既耗时又计算密集。而LoRA通过引入低秩矩阵分解,将权重更新分为共享全局权重和特定任务偏置两部分,显著降低了微调过程中的资源消耗,并保持了较高的性能。 **Fintune方案实施** 基于ChatGLM-6B + LoRA的Fintune方案包括以下步骤: 1. **数据准备**:收集金融领域相关的对话数据集。 2. **模型加载**:加载预训练的ChatGLM-6B模型作为微调的基础。 3. **LoRA初始化**:根据任务需求设置超参数,如低秩矩阵大小等。 4. **微调训练**:使用特定领域的对话数据进行迭代训练,并应用LoRA更新机制以减少计算负担。 5. **性能评估**:在验证集上测试模型的自然度、准确性及针对性等指标。 6. **部署应用**:将优化后的模型应用于实际金融对话系统,提供高质量交互体验。 该方案所需文件可能包含详细步骤和注意事项说明文档以及微调所需的代码、配置文件和预训练权重。开发者可通过运行这些资源实现ChatGLM-6B在特定任务上的定制化优化。
  • ISIC数据集图像分类与优化源码详解(提供服务)
    优质
    本项目深入解析基于ISIC数据集的皮肤病变医学图像分类技术,并优化现有模型性能。提供详尽代码解读及专业咨询,助力研究与应用落地。 标题中的“基于ISIC数据集医疗图像分类+优化模型源码+详细可咨询”表明这是一个使用ISIC数据集进行皮肤疾病诊断的项目,并提供了经过优化的模型代码,同时作者提供咨询服务以解答可能遇到的问题。 ISIC(International Skin Imaging Collaboration)数据集是一个广泛用于皮肤癌识别和皮肤病诊断的大规模医学图像库。它包含各种类型的皮肤病变图片,如痣、良性肿瘤、恶性肿瘤等,为机器学习和深度学习算法提供了训练素材。使用这样的数据集进行医疗图像分类旨在开发能够自动识别皮肤病状的智能系统,这对于提高医生的工作效率以及疾病的早期发现至关重要。 描述中的内容进一步确认了这是一个实践项目,并提供了一系列用于训练、推理及测试任务的Python脚本。“infer-pt.py”可能是一个预测脚本,它加载预训练模型并应用于新的图像进行分类,“train-pt.py”可能是训练脚本,负责构建和优化模型架构以及执行训练循环。而“test-pt.py”则可能被用来验证模型性能。 在这些源码中,我们可以期望看到以下关键知识点: 1. **深度学习模型**:项目可能会使用常见的卷积神经网络(CNN)如ResNet、VGG或Inception等。 2. **数据预处理**:包括归一化和图像尺寸调整以增加模型的泛化能力。可能还包括各种形式的数据增强,例如翻转、旋转及裁剪操作。 3. **损失函数**:对于多类分类问题,可能会使用交叉熵损失(Cross-Entropy Loss)作为优化目标。 4. **优化器**:如Adam或SGD等用于控制模型参数更新的算法被广泛采用。 5. **训练策略**:可能涉及批量大小、学习率调度以及早停法等技术以提高模型性能。 6. **评估指标与方法**:可能会使用准确度、精确度、召回率及F1分数来衡量和优化模型表现。AUC-ROC曲线也是常用的评价方式之一。 7. **代码组织结构**:良好的代码架构和注释有助于理解和重复利用这些源码。 此外,项目还可能包括可视化工具的使用如TensorBoard等以帮助追踪训练过程中的变化,并展示损失函数与精度的变化情况。此项目的深入研究不仅能够提供实践机会,也可能涉及模型调优技巧、超参数搜索及正则化技术的应用。对于对医疗图像分类或深度学习感兴趣的个人而言,这是一个极好的资源来提升技能水平并获得专家指导的机会。
  • 微调问答机器人应用.zip
    优质
    本研究探讨了利用大规模预训练模型进行微调以构建高效的中文医疗问答机器人,并分析其在实际场景中的应用效果。 我在AI大模型应用领域积累了丰富的经验与成果,希望能对您有所帮助。如果您有关于大模型账号、环境配置或技术落地方案的问题,欢迎随时咨询。能够帮助解决您的问题将使我感到荣幸!
  • ChatGLM-6B、ChatGLM2-6B和ChatGLM3-6B下游任务微调研究(包括Freeze和LoRA)
    优质
    本研究探讨了在ChatGLM-6B、ChatGLM2-6B及ChatGLM3-6B模型上进行下游任务微调的效果,特别关注全量冻结与LoRA技术的应用。 基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型进行下游任务的微调工作,涵盖了Freeze、Lora、P-tuning以及全参微调等方法的应用。