据悉,微软研究人员与一批医院合作,获得了使用生物医学图像文本对应大型数据集来训练多模态 AI 模型。该数据集包括胸部 X 光、MRI、组织学、病理学和 CT 图像等,覆盖范围相对全面。
微软使用 GPT-4,基于 Vision Transformer 和 Vicuna 语言模型,在八个英伟达 A100 GPU 上对 LLaVA-Med 进行训练,其中包含“每个图像的所有预分析信息”,用于生成有关图像的问答,以满足“可自然语言回答有关生物医学图像问题”的助手愿景。
在学习过程中,模型主要围绕“描述此类图像的内容”以及“阐述生物医学概念”而展开。据微软称,该模型最终具有“出色的多模式对话能力”、“在用于回答视觉问题的三个标准生物医学数据集上,LLaVA-Med 在部分指标上领先于业界其他先进模型”。
研究团队表示:“虽然我们认为 LLaVA-Med 模型代表了朝着构建有用的生物医学视觉助手迈出的重要一步,但当下 LLaVA-Med 模型还存在一定的不足之处,即大模型常见的虚假举例和准确度不佳的问题,研究团队未来将侧重于提高模型的质量和可靠性,以令模型有朝一日可以在商业生物医学中应用。”
IT之家注意到,目前该模型已经开源,大家可以在 GitHub 找到相关信息。