

有一句著名的阿尔伯特·爱因斯坦的名言说,“创造力是智力在玩乐。” 但是,当智力不再仅仅是人类的时会发生什么?然后,它就变成了人工智能(AI)。继续阅读以了解AI在艺术中的作用、它提供的机会、它提出的挑战等。以下文章将讨论AI在艺术中的角色、它提供的机会、它提出的挑战等。AI在艺术和创造力中的交汇AI通过提升创造力、自动化流程和生成独特的作品改变了艺术世界。它与艺术家合作生成新的可能性,模糊了人类和机器创造力之间的界限。但是,有一些问题: AI是否真正具有创造力,还是只是模仿人类的作品? 它如何改变我们对艺术的理解? AI只是一个拷贝者还是一个创造天才? 观点不同。一些批评家认为,AI只是现有事物的反映,复制模式而没有真正的原创性。然而,其他人认为AI是一种强大的创造工具,它扩展了人类的想象力。正如MidJourney的创始人David Holtz所说,“我们将这项技术视为想象力的引擎。”AI在艺术中的应用以下是AI在艺术中的几个应用:生成式AI生成式AI是一种使用机器创作艺术的新方式。艺术家给AI提供特定的指令,AI根据这些输入创建独特的艺术作品。这可以包括从抽象画到数字雕塑的所有内容。Gen AI在艺术中的工具和技术生成式对抗网络(GANs)是AI艺术背后的关键技术。GANs使用两个同时工作的神经网络。一个网络,即“生成器”,创建图像,而另一个网络,即“判别器”,检查图像是否看起来真实。这种反复的过程帮助生成器改进其输出,随着时间的推移产生更令人信服和真实的图像。AI在艺术中的应用艺术家Memo Akten和Mike Tyka使用DeepDream算法创作艺术,并在2016年在旧金山的一家画廊展出。这是AI生成的艺术首次在公共展览中展出。2018年,埃德蒙·贝拉米的肖像,由巴黎的Obvious团队创作的AI生成的艺术品,在佳士得拍卖行出售。这被认为是首次广泛宣传的AI艺术品出售。风格转换风格转换使用AI将一张图像的风格与另一张图像的内容融合。这意味着您可以将一张简单的照片转换成一件受梵高、毕加索或其他标志性艺术家启发的艺术品。像Prisma和DeepArt这样的应用程序分析风格图像的模式、颜色和纹理,并将其应用于您选择的照片。增强艺术过程像Adobe Sensei这样的工具帮助颜色校正、对象删除和图像缩放。现在,艺术家有足够的时间来专注于创造力,而不是重复的任务。AI也可以生成独特的模式、音乐和视觉效果,这些可能很难被人类想象或产生。AI倾向于成为现代的缪斯,鼓励艺术家尝试和跳出思维定势。个性化设计AI帮助创建的设计让每个用户都感到亲切。它根据用户行为、偏好和人口统计学调整界面。预测设计AI还可以预测设计趋势或客户需求。它分析数据以预测哪些元素将在未来流行。预测设计确保今天创造的东西明天仍然相关。AI在艺术和设计中的益处以下是AI为艺术和设计带来的几个益处: 增强创造力: AI作为艺术家的有用伴侣,开启了传统方法之外的新可能性的大门。它可以激发新的设计理念,推荐颜色方案,甚至可以使用逼真的3D模型将概念变为现实。 效率和生产力: AI自动执行耗时的任务,如颜色校正和缩放。这为创意人员腾出了时间来完善概念和探索新的想法。 可及性: AI使高级创意工具对每个人都可用,无论技能水平如何。它赋予没有正式培训的个人创作专业质量作品的能力。 创新: AI工具通过混合不同的媒体和技术实现新的艺术形式。它们鼓励跨学科的合作,例如AI在生物学中的应用。 艺术、伦理和AI:谁持有画笔?AI生成的艺术引发了一系列伦理和哲学问题。谁拥有艺术?最大的问题之一是所有权。如果人工智能创作了一件艺术品,谁拥有它?当前的法律框架往往难以解决这些复杂问题,留下创作者和创新者在未知领域中摸索。创造力来自哪里?AI在艺术中引发了关于原创性的问题。虽然有些人认为它只是另一种媒介,但其他人担心它可能会剥夺使人类艺术独特的个人、情感的触感。隐私和偏见是否受到威胁?隐私和偏见是主要问题。AI系统通常在未经许可的情况下使用个人数据或受版权保护的材料。这可能会侵犯隐私并产生偏见、刻板的艺术作品。技术会取代人类艺术家吗?随着AI生成的艺术变得更加先进,插画家、设计师,甚至美术艺术家可能会发现他们的工作处于风险之中。公司可能会选择更便宜、更快的AI解决方案,而不是人类劳动力。那么,我们应该如何继续前进?必须制定明确的指南,关于AI的训练、对艺术家的公平补偿以及保护人类创造力的不可替代的价值。这种方法可以确保AI补充人类的创造力,而不是与其竞争。AI驱动艺术和设计中的挑战虽然AI正在改变艺术和设计的世界,但仍然存在一些挑战。 技术约束: AI难以复制给艺术注入灵魂的情感和个人意图。虽然它可以模仿风格和模式,但它缺乏人类的元素。 过度依赖的风险: 强大的AI工具可能会导致艺术家优先考虑易用性而不是原创性。过度依赖机器可能会导致缺乏人类创造力独特触感的通用艺术。 环境问题: 训练大型AI模型需要大量的能量,这增加了环境问题。...


增强现实(AR)技术多年来一直吸引着人们的想象力,承诺将数字信息无缝地融入我们的物理世界。通过将计算机生成的图像叠加到真实世界的视图上,AR有可能从根本上改变我们与环境的交互方式。从增强游戏体验到在手术室中协助外科医生,AR的应用似乎无穷无尽。然而,尽管AR技术具有巨大的潜力,但它在实现广泛采用方面面临着重大的障碍。当前的AR系统通常依赖于笨重的头戴式设备或护目镜,限制了它们在日常使用中的实用性。这些设备可能很笨重,视野有限,图像质量不理想。此外,这些系统的功耗和热量产生也为长时间使用带来了额外的挑战。另一个关键限制是难以在不损害图像质量或视野的情况下缩小AR显示器。随着消费者越来越多地要求更时尚、更隐蔽的AR设备,行业正努力应对缩小光学部件同时保持性能的复杂任务。紧凑AR显示器的探索在AR技术中推动微型化的努力不仅仅是关于美观或便利。紧凑的AR系统有可能无缝地融入我们的日常生活,就像智能手机已经做到的那样。想象一下,AR功能集成到一副普通的眼镜中,提供实时信息、导航辅助,甚至专业工具,而无需笨重的硬件。然而,缩小AR系统会带来一系列技术挑战。传统的AR显示器通常使用四镜头系统将图像投射到用户的视野中。减小这些光学部件的大小通常会导致图像质量明显下降和视野变窄。这种尺寸和性能之间的权衡一直是开发主流AR眼镜的主要障碍。此外,随着AR系统变得越来越小,散热和功耗效率的问题变得越来越关键。平衡高质量显示器的需求与紧凑型机身的限制,需要对硬件和软件设计采取创新方法。微型化的探索还涉及解决与用户舒适度和社会接受度相关的挑战。AR眼镜需要足够轻便和不显眼,以便长时间佩戴,同时也需要时尚 enough,以便在公共场合佩戴而不会引起不必要的注意。尽管存在这些障碍,紧凑的AR显示器的潜在益处仍然推动着该领域的研究和开发。从提高各个行业的生产力到革新个人通信和娱乐,AR技术无缝集成的前景仍然是一个令人信服的目标,吸引着创新者和科技爱好者。混合方法的新进展在这一方面,研究人员开发了一种新的方法来实现AR显示技术,它将多种光学技术结合到一个高分辨率的系统中。这种新型的混合设计集成了超薄膜、折射镜和微LED屏幕,创建了一个紧凑的AR显示器,可能适合标准的眼镜。超薄膜作为初始的光形状和聚焦机制,用于微LED屏幕发出的光。然后,这束光通过由合成聚合物制成的折射镜,进一步完善图像,减少像差,提高清晰度。使这个系统与众不同的是,不仅仅是它的硬件组件,还有它对计算机算法的创新应用。这些算法在微LED发出的光离开之前,起着识别和纠正光学系统中小缺陷的关键作用。这种预处理步骤显著提高了最终的图像质量,拓展了微型AR显示器的可能性。原型性能和测试为了测试他们的创新,研究团队将他们的混合AR显示器集成到一副眼镜的原型中。结果令人印象深刻,系统在30度视野中实现了不到2%的失真。这种性能水平与当前使用更大、四镜头系统的商用AR平台相当。在一个特别引人注目的演示中,团队使用他们的新系统投射了一张红熊猫的图像。在应用他们的计算机预处理算法后,重新投射的图像与原始图像有74.3%的结构相似性,比未纠正的投射提高了4%。这些结果表明,新的混合方法可能匹配或甚至超过较大AR系统的性能,同时适合日常眼镜的机身尺寸。应用和未来前景虽然游戏和娱乐通常主导AR的讨论,但AR技术的潜在应用远远超出了这些领域。随着更紧凑、更高效的AR显示器,我们可能会在医学和交通等领域看到变革性的影响。例如,在手术中,AR可以提供实时的三维患者解剖图像,直接叠加到外科医生的视野中。这可能会提高精度,潜在地改善复杂手术的结果。在汽车行业中,AR可以革新驾驶体验。想象一下,挡风玻璃显示导航信息,突出潜在危险,或者为自动驾驶系统提供关键数据——所有这些都不会阻碍驾驶员对道路的视线。展望未来,研究人员旨在将他们的系统扩展到支持全彩色显示,这将显著扩大其潜在应用。然而,在主流采用之前仍然存在挑战,包括进一步的微型化、提高功耗效率以及解决与广泛使用AR相关的潜在社会和隐私问题。结论AR显示技术的这一突破代表着将AR眼镜变为日常现实的重要一步。通过结合创新光学技术和巧妙的计算方法,研究人员已经证明,可以在标准眼镜尺寸中创建高质量的AR显示器。随着这一技术的不断演进,我们可能正站在一个新时代的门槛上,在这个时代,数字信息将无缝地融入我们的物理世界。从增强我们的工作和学习方式到改变我们与环境的交互方式,广泛可用的AR技术的影响是深远的。虽然仍然存在需要克服的障碍,但这项研究为我们提供了一个令人着迷的未来展望,在这个未来,AR不仅仅是一种新奇事物,而是我们日常生活中不可或缺的一部分。随着开发的继续,我们可能很快就会通过一个新的视角来看世界,这个视角将数字和物理领域之间的差距以我们刚刚开始想象的方式连接起来。
建筑的未来不再局限于传统的蓝图和设计工具。生成人工智能正在重新定义我们概念化和建造空间的方式,提供新的工具来简化复杂的设计,探索创新可能性,并优化可持续性。随着生成人工智能驱动的蓝图越来越多地融入设计过程,建筑的未来正在以我们刚刚开始理解的方式演变。在本文中,我们将更详细地了解生成人工智能如何在悄悄地塑造建筑设计的未来。简化设计流程设计建筑是一个复杂的过程,需要仔细平衡结构完整性、能源效率和美观,需要时间和深思熟虑。生成人工智能通过减轻建筑师和设计师的时间消耗型任务来简化这个过程。它可以快速生成多个设计选项,基于特定的参数——这是人类设计师需要花费更长时间才能完成的。这种效率使得设计的评估更加深思熟虑,考虑到可持续性和结构完整性等因素。像 Autodesk 的生成设计、Grasshopper for Rhino 和 Houdini 这样的工具已经被开发出来,以便使用生成人工智能来探索设计可能性。 文本到 CAD(简称计算机辅助设计)是一个新兴的生成人工智能领域,涉及将书面提示转换为 3D 模型。通过将特定的几何形状与描述性词语链接起来,这些人工智能系统可以生成各种形状和风格,导致具有可编辑表面的可下载 CAD 模型,可以在大多数 CAD 程序中使用。有了像 Google 的 DreamFusion、OpenAI 的 Point-E、Nvidia 的 Magic3D 和 Autodesk 的...


在一项开创性的举动中,苹果公司揭幕了其最新的创新产品 Vision Pro,这标志着其正式进入增强现实(AR)和虚拟现实(VR)的沉浸式世界。自从 Vision Pro 的宣布以来,人们已经对其进行了广泛的讨论,其对 AR 和 VR 领域的潜在影响也备受关注。本文将讨论该设备的具体细节、其独特的功能,以及它可能对技术的未来带来的影响。介绍 Vision Pro苹果的 Vision Pro旨在为用户提供无与伦比的 AR 和 VR 体验,利用苹果著名的设计理念,即软件和硬件的无缝集成。虽然这家科技巨头并不是第一个进入 AR/VR 领域的公司,但它的确以一种盛大的方式进入了这个领域。凭借其时尚的设计,不会在舒适性上妥协,以及一系列突破 AR 和 VR 可能性的功能,Vision Pro 是苹果致力于创新精神的见证。Vision...


人工智能的进步正在主导主流对话。人工智能的应用似乎是无限的——也不奇怪,它将改变我们的世界和我们与世界的交互方式。与许多其他行业一样,这尤其适用于增强现实。人工智能模型已经被用于构建沉浸式增强现实体验——尤其是在 移动设备应用 上。增强现实和人工智能领域正在合作,创建直观、独特的体验,这些体验更彻底地融合了真实和数字世界。人工智能和增强现实开发的下一个前沿是将高级人工智能能力集成到消费者增强现实眼镜中,以扩展沉浸式互动的可能性。生成式人工智能将加速3D世界的创建,并为佩戴者创造无限的可能性来创造自己的现实生成式人工智能具有算法、语言模型和处理能力的进步,可以运行必要的计算来映射和与物理世界交互。到目前为止,增强现实眼镜中的3D模型存在 限制,因为它们基本上是手动的。然而,生成式人工智能可以快速、自主地创建这些模型。生成式人工智能在增强现实眼镜中将帮助更快地构建3D模型,解锁增强现实的全部潜力。这种数字世界的创建,将覆盖物理世界,将变得更快、更完整、更沉浸式,而无需大量的手动劳动。生成式人工智能还将改变用户体验和我们与物理空间的交互方式。使用生成式人工智能启用的增强现实眼镜,佩戴者可以将他们的想象力直接转移到现实世界中。无需编码,佩戴者可以使用语音识别通过增强现实眼镜“说出”他们的图像和3D对象,正如他们想要的那样。他们可以说:“想象一下,有一只海豚在房间里游泳”——它就会出现在他们面前。这种沉浸式体验的机会几乎是无限的,适用于娱乐、工作和其他领域。使用生成式人工智能的增强现实眼镜还将改变游戏世界,创造出更具沉浸式和个性化的游戏体验。例如,使用ChatGPT,可以更容易地创建更真实的角色和添加新的任务或游戏世界。它还可以用于通过分析玩家行为并实时使游戏更容易或更具挑战性来改善游戏体验,从而自主地定制体验。人工智能启用的语音和书面文本翻译将减少语言障碍自动语音识别(ASR)使用神经网络音频视觉语音识别(一种依赖图像处理来提取文本的算法)。这可以实时将书面文本(如外国菜单上的文本)翻译成您的母语。当应用于增强现实眼镜时,它可以在增强现实眼镜的框架内为您提供母语的实时字幕,同时有人用其他语言说话。这消除了游客和商务人士试图用当地语言沟通的挫败感,从而促进了更具沟通性和协作性的世界。文本识别和翻译结合 人工智能光学字符识别(OCR)技术 和文本到文本翻译引擎,如DeepL。人工智能引擎,如 Stable Diffusion,还可以通过动画或其他视觉辅助工具来增强沟通,这些辅助工具可以帮助传达复杂或详细的概念。这加深了用户的参与度:一副使用此人工智能的增强现实眼镜可以实时显示相关的图像或视频,展示用户在面板或演示文稿前正在说的话。Google最近 展示了开发具有此功能的增强现实眼镜。它还使 聋人社区 能够在不需要唇读或眼神交流的情况下进行日常对话,通过将音频实时转换为字幕并在佩戴者的眼前显示。人工智能正在医疗保健、教育和许多其他领域发挥作用。很快,我们将拥有智能增强现实眼镜,就像流行的科幻小说一样,它将把人们带入增强现实或虚拟现实环境中,人工智能可以快速映射房间和说话者的位置,使虚拟通信无论双方位于何处都变得无缝和更少 cumbersomeness。人工智能帮助增强现实眼镜轻松检测和标记现实世界中的对象——加深参与度卷积神经网络(CNN)算法在物体检测中目前被用于移动设备,以估计场景中物体的位置和范围。一旦检测到物体,增强现实软件可以将文本叠加到物体上或将另一个物体生成到物理世界中,并创建两个物体之间的交互。被转移到现实世界的物体有许多应用,包括指令、导航、饮食和营养等。佩戴一副具有这些人工智能功能的增强现实眼镜,例如,用户可以走在任何城市的街道上,并在查看地标时实时了解地标信息。增强现实眼镜可以识别、标记和提供有关城市及其地标的信息——所有这些都通过佩戴者的镜框。随着物体识别技术的改进,任何食物和食用量的营养数据,例如卡路里、蛋白质、脂肪和胆固醇,都将可用。与此同时,产品上的简单QR码将为用户唤起营养详细信息。除了纯粹的物体检测,面部识别软件也正在成为 人 检测的常见技术。面部识别已经在航空业中起飞,因为更多的航班使用该技术来确认乘客的身份——添加了一个额外的安全层并加快了登机过程。面部识别,当应用于增强现实眼镜时,可以为佩戴者提供识别他人的能力。例如,在不久的将来,使用增强现实眼镜,您可能能够在社交媒体上遇到他人并在决定是否“添加好友”或与他们建立联系之前立即获得他们的背景信息。人工智能启用的增强现实眼镜正在改变我们的生活,它们的视觉和功能将继续改进。在我们日益相互连接的世界中,它们简化了任务并打破了几年前被认为是不可逾越的障碍。人工智能的进步正在如此快速地发生,以至于在接下来的10年里,人工智能将比过去50年取得更多进步。无论是政府、商业还是个人环境,人工智能很快将与增强现实眼镜融合,融合我们的物理和数字环境。


像人工智能和计算机视觉这样的技术变得更加容易获取和使用。这种技术有潜力提供高级的基于功能的技术,从而加速其在几乎所有行业的采用。其中一种技术是增强现实(AR),它将数字信息与用户的环境实时集成。虽然增强现实主要与娱乐和游戏行业相关,但它在医疗保健领域也取得了显著进展。增强现实有可能在医疗保健领域,特别是在像放射学这样的专业领域,带来巨大的突破。本博客探讨了增强现实在医疗保健中的应用及其影响。增强现实对医疗保健的影响关于医疗过失的研究显示,每年有多达1,500,00人因医疗错误而遭受非致命伤害。作为一种用于减少医疗错误和改善患者护理和安全的技术,增强现实旨在通过可视化帮助医生立即访问患者,协助急救人员提供治疗指示,并使用紧急医疗服务(EMS)直接诊断患者的当前状况。增强现实技术影响医疗培训和教育,通过创建手术模拟并使学生能够实时练习,强调实践技能。它为医疗保健专业人员提供患者特定的信息,并改善患者护理团队成员之间的沟通。另外,增强现实可以通过使用视频远程医疗功能来帮助降低成本,这些功能可以实现与远程医疗专业人员的实时通信,允许医疗保健高效地分配资源。增强现实在医疗保健中的6个应用增强现实革命了医疗专业人员诊断、治疗和教育患者的方式。以下是增强现实在医疗保健中的6个应用,其中增强现实正在带来改变。 医疗培训 使用增强现实技术的医疗培训在今天的医疗保健领域并不罕见。它使医疗学生能够以交互方式实践他们的理论知识。增强现实工具帮助学习者在安全的数字环境中发展他们的技能。使用基于增强现实的医疗培训,学生可以按照自己的节奏练习,重复程序,并实时访问最新的外科技术。例如,Touch Surgery是一家基于增强现实的初创公司,允许用户使用外科模拟实践手术。 手术中的增强现实辅助 外科医生可以在手术过程中从其他远程外科专家、医生或医疗设备/技术专家那里获得实时的术中指导。这种辅助在手术复杂、外科医生可以在手术过程中从额外的技术专家那里获得帮助时尤其有益。医疗专业人员使用增强现实头戴设备,将X光或CT扫描的图像投射到患者的身体上。这使他们能够实时获得患者的X光视图。 医院内增强现实导航 医疗设施通常包含许多建筑和楼层,导航它们可能很复杂且耗时。基于增强现实的室内导航帮助患者和医疗人员导航建筑并快速找到正确的房间或设备。增强现实导航使用增强现实技术为用户提供屏幕上的方向,叠加在真实世界的环境上,可以使用设备的摄像头(如平板电脑或智能手机)查看。 药物发现 增强现实技术用于药物发现中的数据可视化,以使科学家和健康专家能够评估复杂的基因数据。增强现实帮助制药公司的研究和开发过程,用于药物发现和研究各种疾病。另外,该技术用于与远程工作的其他科学家共享信息。它还增强了样本安全性和数据集成,以促进全球医疗保健合作。由于增强现实技术可以提供3D视图,因此我们可以以三维方式观察药物在体内的作用。另外,实验室技术人员使用专门的设备跟踪实验,使用增强现实。 静脉可视化 今天,医生和护士使用手持式增强现实设备来检测患者的静脉。该设备使用增强现实和红外激光,然后将图像显示回患者的皮肤上,以帮助医疗专业人员。一个例子是AccuVein,它是一种静脉可视化设备。它帮助医疗保健在静脉检测过程中提高静脉穿刺的准确性。该设备可用于多种程序,例如抽血、美容手术等。 介入放射学 介入放射学是一门使用医疗成像进行各种微创手术的医学学科。这些包括X光荧光、磁共振成像等,用于诊断和治疗疾病。由于增强现实可以将CT成像转换为结构的密集三维地图,并帮助医疗成像,因此它可以用于促进介入放射学。使用增强现实,医疗专业人员可以在手术放射学过程中访问或显示3D空间中的医疗成像,以获得增强的指导。医疗保健中增强现实的未来医疗保健中增强现实的兴起,例如手术模拟、诊断、成像和患者护理管理,正在促进全球增强现实市场的销售机会。我们可以期待增强现实与其他技术的更大融合和更个性化的患者护理。另外,5G网络的扩展可能会支持基于云的增强现实,提供更高的数据速度和更低的延迟。要了解更多关于增强现实和人工智能、机器学习相关行业趋势的信息,请阅读unite.ai上的更多文章。


斯德哥尔摩大学和马尔默大学之间的合作导致了新技术的诞生,使得在虚拟现实(VR)环境中嗅觉成为可能。这种新机器被称为嗅觉计,可以使用3D打印机打印。该研究得到了玛丽安娜和马库斯·瓦伦伯格基金会的资助,并发表在《国际人机研究杂志》上。约纳斯·奥洛夫松是斯德哥尔摩大学的心理学教授,也是该研究项目的负责人。“我们希望新的技术可能性将导致气味在游戏开发中扮演更重要的角色,”奥洛夫松说。开发嗅觉机器传统的计算机游戏通常专注于我们可以看到的东西,例如屏幕上的移动图像,而不是其他感官。但是,这种情况正在改变。跨学科研究小组开发了一台可以由游戏计算机控制的嗅觉机器。参与者在虚拟的酒窖中移动,捡起不同类型的葡萄酒杯,同时猜测香气。嗅觉机器附着在VR系统的控制器上。当玩家抬起酒杯时,它会释放一种香气。西蒙·尼登塔尔是马尔默大学的交互和游戏研究员。“从被动到主动的嗅觉感知转变为游戏世界铺平了道路,开发完全新的基于嗅觉的游戏机制基于玩家的移动和判断,”尼登塔尔说。嗅觉计的构造嗅觉计有四个不同的阀门,每个阀门都连接到一个通道。中间包含一个风扇,吸入空气到一个管道中。计算机使玩家能够控制四个通道,打开到不同的程度,提供不同的香气混合。香气混合模仿了真正的葡萄酒的复杂性,游戏具有不同级别的难度,基于复杂性。“就像正常的计算机游戏变得更加困难,当玩家变得更好时,嗅觉游戏也可以挑战已经拥有敏感鼻子的玩家。这意味着嗅觉机器甚至可以用于训练葡萄酒品尝师或香水师,”奥洛夫松说。该团队已经在线发布了机器的所有代码、蓝图和说明,以及虚拟品尝游戏的代码。研究小组现在希望带有气味的计算机游戏可以扩展其应用。“对于那些例如在COVID-19之后或由于其他原因失去嗅觉的人来说,新的技术可以提供一个机会,以游戏为基础的训练来恢复嗅觉,”奥洛夫松说。“我希望开放源代码的技术可以带来机会,让游戏公司开始使用新的技术创建新的商业产品,用于嗅觉训练,”他继续说。西蒙·尼登塔尔说,技术的开放源代码方面有助于促进可访问性、可复制性和结果的比较。它还有助于建立游戏开发中的研究和设计社区。“但这也意味着设备的成本大大降低,使其更容易被更多人使用。对于我们来说,这很重要,”尼登塔尔说。“我们相信开放科学,研究结果应该向公众开放,其他研究人员应该能够重复我们的结果。有了我们的研究,其他人可以建立嗅觉机器,探索新的方法来使用气味在游戏中,”奥洛夫松补充说。


最近的一项研究由佐治亚州立大学的研究团队进行,表明频繁的视频游戏玩家在感官运动决策技能和某些大脑区域的活动方面表现出更好的能力,与非玩家相比。研究人员在新研究中使用了功能性磁共振成像(FMRI),并表示这可能表明视频游戏是感知决策训练的有用工具。视频游戏玩法Mukesh Dhamala是首席研究员和佐治亚州立大学物理和天文学系以及神经科学研究所的副教授。“视频游戏被我们绝大多数的年轻人每周玩超过三小时,但是其对决策能力和大脑的有益影响尚不清楚,”Dhamala说。“我们的工作提供了一些答案,”Dhamala继续说。“视频游戏可以有效地用于训练——例如,决策效率训练和治疗干预——一旦相关的大脑网络被识别。”训练人类大脑Tim Jordan是研究的首席作者,他分享了一个关于如何利用视频游戏训练人类大脑的个人故事。Jordan在童年时期有一只眼的视力较弱,五岁时,他参加了一项研究,在研究中,他被要求用一只眼遮住另一只眼来玩视频游戏,以加强弱眼的视力。Jordan认为视频游戏帮助他从一只眼几乎失明到具有强大的视觉处理能力,最终使他能够参加体育活动。Jordan现在是加州大学洛杉矶分校的博士后研究员。新的研究项目涉及47名大学年龄段的参与者,其中28名被归类为常规视频游戏玩家,19名被归类为非玩家。参与者躺在FMRI机器内,机器内有一个镜子,可以让他们看到一个提示,紧接着是一个移动点的显示。他们被要求按下右手或左手的按钮来指示点的移动方向,或者如果他们没有检测到任何方向运动,就不按任何按钮。结果显示,视频游戏玩家在检测运动方面更快、更准确,脑部扫描分析发现,这种差异与大脑某些区域的活动增强有关。“这些结果表明,视频游戏玩法可能会提高感知、感知和映射到行动的几个子过程,以提高决策技能,”作者写道。“这些发现开始阐明视频游戏玩法如何改变大脑以提高任务性能及其对增加任务特定活动的潜在影响。”研究还发现,速度和准确性的反应之间没有折衷。“这种缺乏速度-准确性折衷将表明视频游戏玩法是决策方面的认知训练的良好候选者,”作者得出结论。


元宇宙是当前最重要的新兴技术之一。事实上,元宇宙在虚拟世界中引起了如此大的轰动,以至于社交媒体巨头 Facebook 甚至 将其官方名称改为 Meta,以反映新宇宙的重要性。人工智能(AI)可能在元宇宙的包容性和可访问性方面发挥至关重要的作用,使其更加功能性和用户友好。但是,这些技术如何改变互联网和商业的面貌呢?什么是元宇宙?元宇宙本质上是一个模拟现实世界元素的整个虚拟宇宙。它使用各种技术,例如: 人工智能 虚拟现实 增强现实 3D 动画 区块链 元宇宙是 Web3 的扩展——当前互联网工作方式的重构。元宇宙和 Web3 依赖于区块链技术,这改变了信息的存储和所有权方式。技术的倡导者声称,它将创造新的经济和产品,在那里,权力归于人民。元宇宙的层次元宇宙通常具有 七个层次: 体验 发现 创作者经济 空间计算 去中心化 人机接口 基础设施 AI 如何与元宇宙合作?AI...


杜克大学的计算机工程师开发了可以模拟人类视觉的虚拟眼睛。这些虚拟眼睛如此准确,以至于可以用来训练虚拟现实和增强现实程序。它们将对希望在元宇宙中创建应用程序的开发者来说非常有益。这些结果将于5月4-6日在信息处理传感器网络国际会议(PSN)上宣布。新的虚拟眼睛被称为EyeSyn。训练算法像眼睛一样工作玛丽亚·戈尔拉托娃是杜克大学电气和计算机工程的诺特网络助理教授。“如果你想仅通过查看一个人的眼睛来判断他们是否正在阅读漫画书或高级读物,你可以做到,”戈尔拉托娃说。“但是训练这种算法需要数百个人戴着头盔数小时的数据,”戈尔拉托娃继续说。“我们希望开发出不仅可以减少收集此类数据的隐私问题,还可以让没有如此多资源的小公司进入元宇宙游戏的软件。”人类的眼睛可以做很多事情,例如指示我们是否感到无聊或兴奋,注意力集中在哪里,或者我们是否是某项任务的专家。“你优先考虑视觉的地方也透露了很多关于你作为一个人的信息,”戈尔拉托娃说。“它可以无意中揭示性别和种族偏见、我们不想让他人知道的兴趣,以及我们可能不知道的关于自己的信息。”眼球运动数据对于在元宇宙中构建平台和软件的公司来说非常有用。它可以使开发者能够根据参与度响应量身定制内容,或在周围视野中降低分辨率,从而可以节省计算能力。由计算机科学家组成的团队,包括前博士后研究员郭浩兰和现任博士生蒂姆·斯卡吉尔,旨在开发虚拟眼睛来模拟平均人类对各种刺激声音的反应。为此,他们研究了认知科学文献,探索人类如何看待世界和处理虚拟信息。兰现在是荷兰代尔夫特理工大学的助理教授。“如果你给EyeSyn很多不同的输入并运行它足够多次,你将创建一个合成眼球运动的数据集,它足够大,可以训练一个新的程序的(机器学习)分类器,”戈尔拉托娃说。测试系统研究人员使用公开的数据测试了合成眼睛的准确性。眼睛首先被用来分析安东尼·福奇博士在新闻发布会上向媒体发表讲话的视频。然后他们将其与实际观众的眼球运动数据进行比较。他们还将虚拟眼睛查看艺术品的虚拟数据集与实际数据集进行比较,实际数据集是从人们通过虚拟艺术博物馆浏览时收集的。结果表明,EyeSyn可以密切匹配实际凝视信号的独特模式,并模拟人们的眼睛以不同方式做出反应。戈尔拉托娃说,这些结果表明,虚拟眼睛足够好,可以作为公司训练新元宇宙平台和软件的基线。“合成数据本身并不完美,但它是一个好的起点,”戈尔拉托娃说。“小公司可以使用它,而不是花时间和金钱来建立自己的真实世界数据集(带有人类主题)。而且,因为算法的个性化可以在本地系统上完成,人们不必担心他们的私人眼球运动数据成为大型数据库的一部分。”


德克萨斯 A&M 大学的一组研究人员正在尝试进一步开发一种技术,这种技术可能会带来增强的触摸屏,允许我们“感受到”物体。这项新技术将使我们超越设备仅仅感知和响应触摸,他们正在通过更好地定义手指与设备的交互来实现这一点。该团队由德克萨斯 A&M 大学机械工程系教授辛西娅·希普韦尔(Cynthia Hipwell)领导。该研究于上个月发表在期刊 高级材料上。新型人机接口该团队的目标是开发一种人机接口,能够为触摸设备提供更具交互性的触摸体验。他们通过开发模拟物理物体感觉的技术来实现这一目标。根据希普韦尔的说法,潜在的应用包括更具沉浸感的虚拟现实(VR)平台,可以显示触觉显示界面,如汽车仪表盘上的界面。它还可以实现虚拟购物体验,用户可以通过设备感受到材料的质地,然后再购买。“这将使您能够实际感受到屏幕上的纹理、按钮、滑块和旋钮,”希普韦尔说。“它可以用于交互式触摸屏显示,但一个终极目标是将触觉带入购物,这样您就可以在网上购物时感受到织物和其他产品的质地。”触觉技术的改进希普韦尔说,当前触摸屏技术中的“触觉”方面实际上更适合屏幕,而不是用户。然而,用户和设备之间的关系现在可以更加互惠,多亏了触觉技术的出现和改进。通过添加触觉作为感官输入,虚拟环境可以得到丰富,当前由音频和视觉承载的通信可以得到简化。“当我们查看虚拟体验时,它们现在主要是音频和视觉,我们可能会感到音频和视觉过载,”希普韦尔说。“将触觉引入人机接口可以带来更多功能,更加真实,并可以减少过载。触觉效果可以用来吸引您的注意力,使某些事情更容易找到或更容易完成,使用较低的认知负荷。”该团队正在处理一个极其复杂的接口,该接口会根据用户和环境条件而变化。“我们正在研究电湿效应(施加电场的力)、静电效应、手指的变化、设备的材料特性和表面几何、接触力学、流体运动、电荷传输——实际上,界面中发生的一切,以了解如何设计设备以使其更可靠、更高性能,”希普韦尔说。“最终,我们的目标是创建预测模型,以使设计师能够创建具有最大触觉效果和最小的用户和环境变化的设备。”希普韦尔认为,这些功能将在未来几年内开始被集成到常见设备中。“我认为早期元素肯定会在未来五年内实现,”希普韦尔说。“然后,只是让技术成熟,并观察它变得多么先进、多么真实和多么广泛。”


来自电气和电子工程师学会(IEEE)的研究人员已经开发了一种方法,可以通过特殊的眼镜增加低成本、基于投影的增强现实安装的真实性,这些眼镜可以使投影的3D图像以与真实物体相同的方式进出焦点,克服了投影系统在受控环境中实际使用的关键感知障碍。该系统使用嵌入到查看者眼镜中的电焦可调镜头(ETL),这些镜头与投影系统通信,投影系统然后自动更改查看者看到的投影图像的模糊度。该 论文,题为《多焦点立体投影映射》,为一个长期以来受其与用户聚焦不同物体的方式集成度不够而受到限制的领域提供了一种新的可用性,并承诺克服这些系统在vergence–accommodation conflict(VAC)方面的困难——一种综合征,其中物体的感知距离与其逻辑聚焦距离不匹配,导致物体以不真实的清晰方式“悬浮”在其放置的背景下。在AR环境中,例如Microsoft的HoloLens,foveated渲染被用于集中处理能力,根据用户查看和聚焦的位置渲染细节和焦点。然而,HoloLens等可穿戴AR系统具有更高的载荷,因为它们实际上必须向查看者提供3D图像。投影增强现实的优势相比之下,ETL启用的眼镜只是将焦点信息作为一个额外的变量发送到远程CGI管道,这些管道可以比可穿戴AR设备(即焦点信息 > 发送到远程处理器 > 渲染 > 发送回查看者)更快地更改投影图像的焦点,从而提高延迟,这本身就是AR系统中一种潜在的查看者失向的原因。实际上,foveated渲染被用来适应有限的可用资源,也被用来为用户提供真实的焦点体验,大面积的叠加图像在HoloLens风格的系统中很难实现,有限的“信件盒渲染”和不稳定的边缘是一个一致的投诉。该论文观察到立体投影映射(PM)相比现代AR实现的一些已知优势,这些实现依赖于沉重和密集的身穿设备,如作者所述:首先,视野(FOV)可以通过增加投影仪的数量来覆盖整个环境而变得尽可能宽。其次,使用的主动快门眼镜通常比HMD更轻,物理负担更小。第三,如果多个用户的视点足够接近,他们可以共享相同的AR体验。由于这些优势,研究人员发现立体投影映射适用于广泛的应用,包括但不限于博物馆导览、建筑规划、产品设计、医疗培训、形状变化界面和远程会议。微软研究院在2012年,即公司近年来专注于设备内AR之前,曾设计过一种这样的实现:https://www.youtube.com/watch?v=EaCjTog0u40IEEE研究人员认为,该新的焦点输入系统是第一个通过控制多焦点平面来解决VAC问题的系统,也是第一个以通用和广泛适用的方式解决这个问题的系统,无需昂贵的专用投影设备。研究人员设计的焦点中心渲染管道在渲染过程的开始就接收来自查看者ETL眼镜的焦点信息,而不是要求基本计算机渲染然后模糊。根据实现的不同,这可以进一步节省处理资源并提高延迟,因为查看者的焦点注意力在虚拟元素周围游移。该技术被报告为在各种可能的投影表面上都能很好地工作,包括平面、非平面(即曲面或复杂几何,如医疗X光图像可以叠加的假人)和移动表面。此类投影系统需要黑暗的环境,例如博物馆环境,ETL系统减少了查看者的可用视角,尽管研究人员认为,ETL设备的光圈尺寸增加的趋势将随着时间的推移缓解这一限制。虽然作者还指出该系统需要高速度投影仪才能提供足够的帧来分离成两个流,但他们已经使用了一种商业上可用的投影仪来实现他们的实现。https://www.youtube.com/watch?v=I8DGTQnxm38 *我的内联引用转换为超链接。


洛桑联邦理工学院(Ecole Polytechnique Fédérale de Lausanne)的研究人员发现,虚拟现实(VR)对儿童的影响与对成人的影响不同。鉴于该领域的研究非常少,这项新研究对于成人和儿童都具有重要意义。关于VR的有趣观察2016年,洛桑联邦理工学院的毕业生Jennifer Miehlbradt做出了一个有趣的观察。Miehlbradt允许用户通过移动躯干来在虚拟景观中导航一系列障碍,从而在她的VR中控制无人机。“成年人使用简单的躯干运动轻松地飞过虚拟障碍,但我注意到孩子们根本无法做到这一点,”Miehlbradt说。“那时,Silvestro让我去他的办公室。”当时,Miehlbradt正在接受Silvestro Micera的指导,Micera是伯塔雷利基金会(Bertarelli Foundation)神经工程翻译椅的持有者。两人意识到VR躯干实验中还有更多值得探索的东西,这可能与孩子的神经系统发育有关。当时,关于VR头显对儿童影响的研究还没有相关文献。考虑到这一点,研究团队决定在接下来的几年里与意大利科技研究所(Italian Institute of Technology)合作进行研究。该研究涉及80名6至10岁的儿童,结果于上个月发表在Scientific Reports上。“这项研究证实了技术在理解运动控制方面的潜力,”Micera说。成年人可以轻松地将头部运动与躯干运动分离,类似于他们骑自行车的方式。这个过程涉及多个感官输入的复杂集成,例如来自内耳的平衡视觉和本体感觉,即身体感知运动、动作和位置的能力。对于儿童来说,他们仍然在发展躯干和头部运动的协调,这使他们与成年人不同。一项有趣的发现是,这项研究与过去25年中用来描述上身协调发展的生长发育模型相矛盾。该模型预测从刚性控制到头躯系统解耦的单向转变,并表明8岁时姿势控制已经成熟。Miehlbradt目前正在洛桑大学(UNIL)完成她的博士后研究。“该模型指出,从1岁左右学会走路到6-7岁,儿童会将上身作为一个整体进行控制,躯干、头部和手臂之间存在刚性链接。之后,儿童逐渐学会独立控制所有关节,但在具有挑战性的条件下,他们会回到刚性策略,”Miehlbradt继续说。“相反,我们发现,当使用由身体运动控制的虚拟系统时,年幼的儿童会尝试将头部和身体分开移动,而成年人则使用刚性策略。”实验结果研究团队进行的实验涉及在儿童头部和躯干上放置VR头显和运动传感器,然后让他们玩两个游戏。在两个实验中,儿童在使用头部控制方面表现出与成年人相似的能力,但他们无法在使用躯干控制方面赶上成年人。儿童首先被要求将头部和躯干与虚拟景观中以不同方向显示的线对齐。同时,测量了对齐错误和头躯协调。实验表明,儿童可以相对容易地掌握头部控制,但当他们被要求将躯干与虚拟线对齐时,年幼的儿童会过度估计自己的运动,并试图通过移动头部来补偿。在第二个游戏中,儿童被要求参加飞行模拟。儿童坐在虚拟世界中一只飞鹰的背上,他们的任务是捕捉沿着一条路径放置的金币。儿童再次发现使用头部控制飞行比使用躯干控制容易得多。对于科学家来说,这一切表明头部控制在VR环境中更容易,因为所需的方向与视觉输入一致。躯干控制需要用户将视觉与实际控制分离,这需要头躯协调。年幼的儿童更依赖视觉输入,而不是身体姿势的内部感觉,VR环境可能会迅速让孩子的大脑感到不知所措。“结果表明,沉浸式VR可以破坏儿童的默认协调策略,重新调整视觉、本体感觉和前庭输入等各种感官输入,以视觉为主,”Miehlbradt解释说。“VR不仅在休闲方面越来越受欢迎,而且在治疗应用方面,如康复和神经康复,或治疗恐惧症或恐惧情况方面也越来越受欢迎。可以创建的场景多样性和可以带入原本枯燥活动的游戏性使得这项技术对儿童特别有吸引力,我们应该意识到沉浸式VR可以破坏儿童的默认协调策略,”Miehlbradt说。


字节跳动(ByteDance),这家位于中国的多国互联网公司,是 TikTok 的背后公司,已经开发了一种新的方法来抹去视频中的面部,以便在增强现实应用程序中对人们施加身份失真和其他奇怪的效果。该公司声称,这种技术已经被整合到商业移动产品中,尽管它没有说明哪些产品。一旦视频中的面部被“抹去”,就有足够的“面部画布”来产生令人惊讶的失真,以及可能的其他身份的叠加。字节跳动研究人员在一篇新论文中提供的例子说明了这些可能性,包括恢复“抹去”的特征在各种滑稽(和一些怪诞)的配置中:八月底,人们发现TikTok,第一个非Facebook应用程序,已经推出了TikTok Effect Studio(目前处于闭(beta)状态),这是一个平台,供增强现实(AR)开发者创建TikTok内容流的AR效果。实际上,该公司正在赶上类似的开发者社区,如Facebook的AR Studio和Snap AR,以及苹果的AR R&D社区,也将在未来一年内被新硬件激活。空白表情这篇论文,题为《FaceEraser:增强现实中去除面部部件》,指出现有的填充/插补算法,例如NVIDIA的SPADE,更适合完成截断或半遮挡的图像,而不是执行这种不寻常的“抹去”过程,并且现有的数据集材料因此而匮乏。由于没有可用的真实数据集用于具有实心肉块的面部,研究人员创建了一个名为pixel-clone的新网络架构,可以叠加到现有的神经网络填充模型中,并解决了老方法(如StructureFlow和EdgeConnect)的纹理和颜色不一致问题。为了训练一个模型来识别“空白”面部,研究人员排除了带有眼镜的图像,或头发遮挡了前额,因为头发线和眉毛之间的区域通常是可以提供“粘贴”材料的最大像素组。获得一个256×256像素的图像,大小足够小,可以将其输入到神经网络的潜在空间中,以实现批量处理和泛化。稍后的算法上采样将恢复在AR空间中工作所需的分辨率。架构该网络由三个内部网络组成,包括边缘完成、像素克隆和一个细化网络。边缘完成网络使用与EdgeConnect(见上文)和两个最流行的深度伪造应用程序中使用的相同的编码器-解码器架构。编码器将图像内容下采样两次,解码器恢复原始图像尺寸。像素克隆使用一种修改的编码器-解码器方法,而细化层使用U-Net架构,这是一种最初为生物医学成像开发的技术,经常出现在图像合成研究项目中。在训练工作流程中,需要评估变换的准确性,并在必要时重复尝试,直到收敛。为此,使用了两个基于PatchGAN的判别器,每个判别器评估70×70像素块的局部真实性,忽略整个图像的真实性值。训练和数据边缘完成网络最初独立训练,而其他两个网络一起训练,基于边缘完成训练所得到的权重,这些权重在此过程中被固定和冻结。尽管该论文没有明确说明其最终特征失真的示例是模型的主要目标,但它实现了各种喜剧效果来测试系统的鲁棒性,包括眉毛移除、嘴巴增大、子面部缩小和“卡通化”效果(如上图所示)。该论文断言,“抹去的面部使各种需要放置任何用户自定义元素的增强现实应用程序成为可能”,这表明可以使用第三方用户贡献的元素自定义面部。该模型在NVIDIA创建的FFHQ数据集上进行训练,该数据集包含足够多的年龄、种族、照明和面部姿势和风格的变化,以实现有用的泛化。该数据集包含35,000张图像和10,000个训练掩码,以确定变换区域,并保留4,000张图像和1,000个掩码用于验证目的。训练好的模型可以对2017年的CelebA-HQ和VoxCeleb、FFHQ中未见过的面部以及任何其他未约束的面部进行推理。256×256像素的图像以8批量在PyTorch中使用Adam优化器在Tesla V100 GPU上训练了“2000,000个epoch”。与面部图像合成研究中常见一样,该系统必须应对由遮挡或遮蔽引起的偶尔故障,例如头发、外围设备、眼镜和面部毛发。报告结论:“我们的方法已经被商业化,并且在产品中对不受限制的用户输入起作用。”


智能手机可能很快就能够生成照片级的 3D 全息图像,这在一定程度上归功于 麻省理工学院(MIT)研究人员开发的 AI 模型。MIT 团队开发的 AI 系统 确定了从一系列输入图像中生成全息图的最佳方法。麻省理工学院(MIT)的研究人员最近设计了能够生成照片级 3D 全息图像的 AI 模型。这种技术可以应用于 VR 和 AR 头戴设备,甚至可以由智能手机生成全息图像。与传统的 3D 和 VR 显示器不同,后者只是产生深度的幻觉并可能引起恶心和头痛,全息显示器可以被人们看到而不会引起眼部疲劳。创建全息媒体的主要障碍是处理实际生成全息图所需的数据。每个全息图由创建全息图“深度”的大量数据组成。因此,生成全息图通常需要大量的计算能力。为了使全息技术更加实用,MIT 团队将深度卷积神经网络应用于该问题,创建了一个能够快速根据输入图像生成全息图的网络。生成全息图的典型方法基本上是生成许多全息图块,然后使用物理模拟将块组合成对象或图像的完整表示。这与生成全息图的典型方法不同。在传统方法中,图像被切割成块,然后使用一系列查找表将全息图块连接在一起,因为查找表标记了不同全息图块的边界。使用查找表定义全息图块边界的过程相当耗时且需要大量处理能力。根据 IEEE Spectrum 的说法,MIT...