存根 随着 ChatGPT 借助 GPT-4V(ision) 获得关注,多模态 AI 不断发展 - Unite.AI
关注我们.

人工智能

随着 ChatGPT 凭借 GPT-4V(ision) 获得关注,多模态 AI 不断发展

mm
更新 on
昌吉普特愿景

在不断努力让人工智能更像人类的过程中,OpenAI 的 GPT 模型不断突破界限。 GPT-4 现在能够接受文本和图像的提示。

生成式人工智能中的多模态表示模型根据输入生成文本、图像或音频等各种输出的能力。 这些模型经过特定数据的训练,学习底层模式以生成类似的新数据,丰富人工智能应用。

多模式人工智能的最新进展

最近该领域的显着飞跃是将 DALL-E 3 集成到 ChatGPT 中,这是 OpenAI 文本到图像技术的重大升级。 这种混合可以实现更流畅的交互,ChatGPT 有助于为 DALL-E 3 制作精确的提示,将用户的想法转化为生动的 AI 生成的艺术。 因此,虽然用户可以直接与 DALL-E 3 交互,但将 ChatGPT 加入其中使得创建 AI 艺术的过程更加用户友好。

查看有关 DALL-E 3 及其与 ChatGPT 集成的更多信息 此处。 此次合作不仅展示了多模态人工智能的进步,也让用户的人工智能艺术创作变得轻而易举。

谷歌健康另一方面介绍 医学PaLM M 今年六月。 它是一种多模式生成模型,擅长编码和解释不同的生物医学数据。 这是通过利用开源基准 MultiMedBench 微调语言模型 PaLM-E 来满足医学领域的需求而实现的。 该基准包含 1 种生物医学数据类型的超过 7 万个样本以及医学问答和放射学报告生成等 14 项任务。

各行业正在采用创新的多模式人工智能工具来推动业务扩展、简化运营并提高客户参与度。 语音、视频和文本人工智能功能的进步正在推动多模式人工智能的增长。

企业寻求能够彻底改变业务模型和流程的多模式人工智能应用程序,从数据工具到新兴人工智能应用程序,在生成式人工智能生态系统中开辟增长途径。

GPT-4 在 XNUMX 月份推出后,一些用户发现其响应质量随着时间的推移而下降,著名开发人员和 OpenAI 论坛也表达了这一担忧。 最初被 OpenAI 驳回,后来 根据一项研究, 证实了这个问题。 报告显示,4 月至 97.6 月期间,GPT-2.4 的准确率从 XNUMX% 下降至 XNUMX%,这表明随着后续模型更新,答案质量有所下降。

聊天GPT-AI

ChatGPT(蓝色)和人工智能(红色)Google 搜索趋势

周围的炒作 开放人工智能 ChatGPT 现在回来了。 现在它具有视觉功能 GPT-4V,允许用户让 GPT-4 分析他们给出的图像。 这是向用户开放的最新功能。

一些人认为,将图像分析添加到 GPT-4 等大型语言模型 (LLM) 中是人工智能研究和开发的一大进步。 这种多模式法学硕士开辟了新的可能性,将语言模型超越文本,提供新的界面并解决新类型的任务,为用户创造新鲜的体验。

GPT-4V 的训练于 2022 年完成,抢先体验于 2023 年 4 月推出。GPT-4V 的视觉功能由 GPT-XNUMX 技术提供支持。 培训过程保持不变。 最初,该模型被训练为使用来自包括互联网在内的各种来源的文本和图像的大量数据集来预测文本中的下一个单词。

后来,它使用更多数据进行了微调,采用了一种名为“人类反馈强化学习”(RLHF)的方法,以生成人类喜欢的输出。

GPT-4 视觉力学

GPT-4 卓越的视觉语言能力虽然令人印象深刻,但其底层方法仍然停留在表面。

为了探索这个假设,一个新的视觉语言模型, 迷你GPT-4 被引入,利用名为 骆马。 该模型使用带有预先训练的视觉感知组件的视觉编码器,通过单个投影层将编码的视觉特征与 Vicuna 语言模型对齐。 MiniGPT-4的架构简单而有效,重点是协调视觉和语言特征以提高视觉对话能力。

迷你GPT-4

MiniGPT-4 的架构包括一个带有预训练 ViT 和 Q-Former 的视觉编码器、一个线性投影层和一个高级 Vicuna 大语言模型。

视觉语言任务中自回归语言模型的趋势也在增长,利用跨模态迁移在语言和多模态领域之间共享知识。

MiniGPT-4 通过将预先训练的视觉编码器的视觉信息与高级 LLM 对齐,在视觉和语言领域之间架起桥梁。 该模型利用 Vicuna 作为语言解码器,并遵循两阶段训练方法。 最初,它在大型图像文本对数据集上进行训练,以掌握视觉语言知识,然后对较小的高质量数据集进行微调,以增强生成的可靠性和可用性。

为了提高 MiniGPT-4 中生成语言的自然性和可用性,研究人员开发了一个两阶段对齐过程,解决了缺乏足够的视觉语言对齐数据集的问题。 他们为此目的策划了一个专门的数据集。

最初,该模型生成输入图像的详细描述,通过使用与 Vicuna 语言模型格式一致的对话提示来增强细节。 此阶段旨在生成更全面的图像描述。

初始图像描述提示:

###人类: 详细描述一下这张图片。 提供尽可能多的细节。 说出你所看到的一切。 ###助手:

对于数据后处理,使用 ChatGPT 纠正生成的描述中的任何不一致或错误,然后进行手动验证以确保高质量。

第二阶段微调提示:

###人类: ###助手:

这一探索打开了一扇了解 GPT-4 等多模态生成人工智能机制的窗口,揭示了如何有效地整合视觉和语言模态以生成连贯且上下文丰富的输出。

探索 GPT-4 愿景

使用 ChatGPT 确定图像来源

GPT-4 Vision 增强了 ChatGPT 分析图像并查明其地理来源的能力。 此功能将用户交互从单纯的文本转换为文本和视觉效果的混合,成为那些通过图像数据对不同地点感到好奇的人的便捷工具。

Chatgpt-视觉-GPT-4

询问 ChatGPT 地标图像的拍摄地点

复杂的数学概念

GPT-4 Vision 擅长通过分析图形或手写表达式来深入研究复杂的数学思想。 对于寻求解决复杂数学问题的个人来说,此功能是一个有用的工具,使 GPT-4 Vision 成为教育和学术领域的显着帮助。

Chatgpt-视觉-GPT-4

要求 ChatGPT 理解复杂的数学概念

将手写输入转换为 LaTeX 代码

GPT-4V 的卓越功能之一是能够将手写输入转换为 LaTeX 代码。 对于经常需要将手写数学表达式或其他技术信息转换为数字格式的研究人员、学者和学生来说,此功能是一个福音。 从手写到 LaTeX 的转变扩大了文档数字化的范围并简化了技术写作过程。

GPT-4V 能够将手写输入转换为 LaTeX 代码

GPT-4V 能够将手写输入转换为 LaTeX 代码

提取表详细信息

GPT-4V 展示了从表格中提取详细信息和解决相关查询的技能,这是数据分析中的重要资产。 用户可以利用 GPT-4V 筛选表格、收集关键见解并解决数据驱动的问题,使其成为数据分析师和其他专业人士的强大工具。

GPT-4V破译表详细信息并响应相关查询

GPT-4V破译表详细信息并响应相关查询

理解视觉指向

GPT-4V 理解视觉指向的独特能力为用户交互增添了新的维度。 通过理解视觉线索,GPT-4V 可以以更高的上下文理解来响应查询。

GPT-4V 展示了独特的视觉指向理解能力

GPT-4V 展示了理解视觉指向的独特能力

使用绘图构建简单的模型网站

受此激励 鸣叫,我尝试为 unity.ai 网站创建一个模型。

虽然结果与我最初的愿景不太相符,但这是我实现的结果。

基于 ChatGPT Vision 的输出 HTML 前端

基于 ChatGPT Vision 的输出 HTML 前端

GPT-4V(ision) 的局限性和缺陷

为了分析 GPT-4V,Open AI 团队进行了定性和定量评估。 定性测试包括内部测试和外部专家评审,而定量测试则测量各种场景下的模型拒绝率和准确性,例如识别有害内容、人口统计识别、隐私问题、地理位置、网络安全和多模式越狱。

该模型仍然不完美。

强调了 GPT-4V 的局限性,例如错误的推理以及图像中丢失的文本或字符。 它可能会产生幻觉或编造事实。 特别是,它不适合识别图像中的危险物质,经常会错误识别它们。

在医学成像中,GPT-4V 可能会提供不一致的响应,并且缺乏对标准实践的认识,从而导致潜在的误诊。

用于医疗目的的性能不可靠。

用于医疗目的的性能不可靠(来源)

它还无法掌握某些仇恨符号的细微差别,并可能根据视觉输入生成不适当的内容。 OpenAI 建议不要使用 GPT-4V 进行批判性解释,尤其是在医疗或敏感环境中。

总结

使用 Fast Stable Diffusion XL 创建

使用 Fast Stable Diffusion XL 创建 https://huggingface.co/spaces/google/sdxl

GPT-4 Vision (GPT-4V) 的到来带来了一系列很酷的可能性和需要跨越的新障碍。 在推出之前,我们已经付出了大量努力来确保风险得到充分研究并减少,尤其是涉及人物照片时。 看到 GPT-4V 的进步令人印象深刻,在医学和科学等棘手领域展现出巨大的前景。

现在,有一些重大问题摆在桌面上。 例如,这些模型是否应该能够从照片中识别出名人? 他们应该从照片中猜测一个人的性别、种族或感受吗? 而且,是否应该进行特殊调整来帮助视障人士? 这些问题引发了一系列关于隐私、公平以及人工智能应该如何融入我们的生活的争论,这是每个人都应该有发言权的问题。

在过去的五年里,我一直沉浸在机器学习和深度学习的迷人世界中。 我的热情和专业知识使我为 50 多个不同的软件工程项目做出了贡献,特别关注人工智能/机器学习。 我持续的好奇心也吸引了我对自然语言处理的兴趣,这是我渴望进一步探索的领域。