浪姐4开播国际化嘉宾齐聚,美依礼芽极乐净土打翻流量剧本
最近,“ Lang 4姐妹”推出了高调广播。与以前不同,Mango Terrace这次准备进行国际化。同一时期的综艺节目天花板。但是,这个季节,Lang Sister的交通脚本似乎并未根据预期进行。在国内两维的美女玛丽亚(Maria)中,“极乐纯土地”的受欢迎程度迅速增长。直接统治了名单,并推翻了本赛季Langlang的剧本。
Meiyi Lieba“ Bliss Pure Land”
AIGC版本的“ Bliss Pure Land” Ignite站B
Meiyi Erba和“纯土地”到底是什么?早在7年前,“ Bliss Pure Land”曾经以其旋律和强烈的动态舞蹈鲜血吸引了大量的两个维持粉丝,并成为了St Station B Town的歌曲。 “纯土地”再次变得流行,点燃了B网的网民的热情。一些网民使用AIGC技术重复了“ Bliss Pure Land”舞蹈场地,这引发了激烈的讨论。播放量甚至超出了B站的舞蹈区的著名大型UP版本。
AIGC版本的“ Bliss Pure Land”,图片来自互联网
数百种变化,人们保持不变,产生了ai的公式,以迎接技术突破
AIGC版本的“ Bliss Pure Land”比原始舞蹈更重要(毕竟,跳舞时不喜欢妹妹换衣服)。以前每个人都知道的AIGC图像生成在图像领域使用。因为它无法实现稳定的多帧连续图像生成,所以很少有高质量的AI生成视频。但是,AIGC版本的“ Bliss Pure Land”已实现了对图像的精确控制,并且运动和衣服在不断变化,但角色始终保持相对稳定的状态。原因是AI一代技术已经迎来了新的技术突破。
在2023年,稳定的扩散插头-in,称为ControlNet。该插头是仅仅2天内的2天之内AI绘画领域中最受欢迎的明星。 ControlNet的出现表示AI一代技术已经开始控制,并且是否可以准确控制AI一代技术是AIGC技术是否进入实际生产环境的最关键部分。
早些时候,很难通过具有运动轨迹的AIGC技术(多个图片,视频)进行运动轨迹的稳定和连续图像。由于无法控制的AI技术,每个帧都将具有生成的图像。每个框架都会有每个帧。综合视频不能使用很大的差异。如果有人说使用生成AI技术时,它在某些情况下仍然是一个优势,这可以帮助创造者分散思维并提供更多的可能性。因此,在视频创建领域,未准备好的一代人的AI技术将导致生成的屏幕不可用(想象一下,电影,第二次杰森·坦者的最后一秒钟,下一秒钟变成了巨石Qiangqiangqiangmori),因此在电影和电视领域,AIGC技术的受欢迎程度远远落后于其他行业。
ControlNet与Ebsynth结合在一起,以实现动画转向真实的人
通过引入其他输入,准确控制生成公式AI
ControlNet作者提出了一个新的神经网络概念,以通过引入其他输入(例如稳定扩散)来控制扩散模型,然后将此信息保留在新生成的图像中,例如角色姿势,深度,深度,图片结构等,以实现用户配对生成的图像进行了完善。
在此之前,如果要实现对图像的精细控制,则需要详细描述提示提示,或者使用带有详细提示的图表来产生目标图像的可能性很小。在控制网络出现后,难度大大降低。通过引入其他输入(例如Canny Edge检测和开放孔骨结合),可以通过模型来限制ControlNet,以确保可以根据用户的意图生成和调整生成的图像,以实现对模型的精制控制。
控制网原理
边缘检测作为附加输入
手势检测作为附加输入
从对技术原理的分析中,ControlNet将首先复制扩散模型的重量,以获取“训练副本”。该副本的参数为“锁定”。与原始扩散模型的大量预训练数据相比,这种“可以训练可以训练”可以“复制”仅需要在一组特定任务的小数据集上进行培训,因此相当于大型模型上的“锁定”并具有有条件的控制。
ControlNet连续图片生成效果
AIGC将颠覆视频创建
如果您从技术上实施了AI代的精确控制,则AI代的前景将更广泛。目前,在图像图像生成AI技术,“ Midjourney”和“稳定扩散”的领域都非常有效地克服了可控的AIGC技术,并取得了技术突破。同时,Yuanjing技术“ Metasurfing-Yuanxiang Smart Cloud Platform”也牵头将AIGC引入虚拟数字人员的生产过程,虚拟数字人驾驶过程以及虚拟数字视频内容的生成过程。多模式和一代人的AI技术允许虚拟数字摆脱仅“皮肤”的刻板印象,并赋予“灵魂”和“思想”。
目前,AI一代影响了插图和飞机行业。在实施受控的AIGC技术之后,动画,电影和电视行业将迎来新的一轮技术革命。将来,动画只需要一条手工绘制的厚线草稿即可生成精美的动漫作品。电影可以通过生成AI技术来产生虚拟数字人来完成“拍摄”而不是演员。在干预了电影和电视制作以及后来的过程之后,演员,特殊效果,场地,道具,照明和其他支出可以减少,生产成本将大大降低。从理论上讲,生成AI技术可以完全达到产生电影和电视工作所需的所有条件。
Yuanxiang智能云平台模型控制器正在Alpha中测试
通过对Yuanjing技术的AIGC技术的持续探索,在“ MetaSurfing-Yuanxiang智能云平台”中,可以控制文本和语音内容的控制。平台智能广播模块可以自动编写实时脚本和打开的虚拟数字以生成虚拟数字。人们直播24小时,并根据产品的内容实现Wen Shengwen,Tu Shengwen,并转换为语音,驱动AIGC Multi -Mode Virtual Digital Digital Virtual Digital Digital Humans Sounds进行实时广播互动。在图形字段中,Yuanxiang智能云平台的内部测试版本使用自开发的控制器模型。通过引入其他输入,锁定模型生成内容已在技术层面上达到了国际高级水平。用户只需要简单地提示单词即可实现“ Wen Sheng Map”的“地图”和“地图视频”功能的功能,并且可以设置生成内容的幅度以实现对AI生成内容的精细控制。同时,建造的智能云平台中建造的数字购物中心包含巨大的数字资产,这大大降低了AI一代的创建和使用阈值。初学者也可以轻松地创建出色的图形,视频和动画。
yuanjing创建零阈值数字人物内容创建应用程序平台
对于视频内容创建者,Yuanxiang AIGC模块将带来巨大的效率提高。最初需要投资大量人力和物质资源(需要花费几周)的视频将在一两天内完成。智能使用经验大大降低了视频的生产成本和周期。随着AIGC技术的持续更新和迭代,效率效应将继续提高。在不久的将来,AIGC技术将颠覆视频创建过程,并在电影和电视行业的新时代成为数字生产力。
扩展AIGC应用程序的字段,Yuanxiang生成了AI+模型,打开了多模式虚拟数字人交互的新章节
Yuanjing技术计划将AIGC技术扩展到更多领域。目前,Yuanxiang智能云平台的内部测试版已将AIGC和大型模型技术应用于虚拟数字人体四肢驱动。通过卷积神经网络建立了两道映射关系,以提取动作库的特征和特征。网络解码器获得了肢体运动的关键点信息。生成的AI将音频信息与动作的关键点位置信息结合在一起,生成和驱动虚拟数字人的动作和表达式。实验室环境是在双盲测试中进行的,与Yuanxiang Smart Cloud Platform的内部测试版本相连的Yuanqu AI具有更高的效果,比较了虚拟数字人类E -Commerce的实时广播室的效果。由于Yuanxiang虚拟数字人每次都会讲话,因此动作表达式是由AI代新产生的,并且可以与现场音乐频谱结合使用。在实时广播期间,互动率更加多样化,而且性能更加生动和自然。
在相同的单词和不同的音乐节奏下,每次动态数字人的互动都不同。实时生成的新运动打破了以前的虚拟数字,人们只能根据动作库匹配关键字,而运动模型很小,肢体表达式可以更好地处理僵硬和不自然的问题,可以更好地处理复杂的互动场景。该技术的实施将有效地改善虚拟数字人在电影和电视,教育,金融,娱乐,电子商务,当地生活等许多行业中的应用效果,并且具有无限行动的虚拟数字人将成为一个虚拟人类工业发展的重要里程碑。
文章评论