AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

一般而言,以下方法都是建立在深度学习的基础上,与常规机器学习有一定的不同:
那是两件事。
手工特性提取-自动特性提取
深度学习的最大特点是它可以独立地从数据中提取数据,具有很强的计算能力,使其能够处理人类无法做到的事情。在实现自动控制后,机器人具有更好的学习和适应性。
手动判断产生的效果–自动判断和优化,在学习中,由于使用了大量的手工标记,该方法成本高,效果差。由人来判断效果的优缺点,存在成本高、效果低的问题。

AI 基于一些目前非常热门的绘画平台 AI 以上两点采用不同的算法策略实现,如下:

1)技术

总结一句话 GAN 设计动机是自动化

生成对抗网络()是一种非常流行的方式 AI 绘画算法。它包含两个网络:生成器和判别器。生成器生成图像,而判别器评估图像的真实性。

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

在培训过程中,两个网络相互竞争,直到生成器能够生成与真实图像相同的图像。

知乎上有一个很好的白话解释,大家应该都能理解:一开始一个城市治安不好,很多高低水平的小偷都混在一起;突然开始了治安整顿活动,低水平的小偷很快就被抓住了,所以整体小偷水平大大提高;之后警察也提高了自己的能力。通过抓住高水平的小偷案例,他们培养了一眼看到小偷并及时制止小偷的能力。经常水平大大提高;两者反复“对抗”,最终得到了最强的小偷和最强的警察。

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

非大白话解释是控制变量训练,固定判别器,训练生成器“欺骗”判别器;然后固定生成器,训练判别器找出生成器制作的“假数据”;循环训练就是这样。

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

最后,我们得到了“生成器” G因此,我们可以使用这个工具来生成所需的图像。
想了解 GAN技术的细节,请阅读以下两部分:
近几年来,它被用来制作真实的图像、视频音频等。
一种基于人工智能的绘图方法
这是一种基于人工智能技术的艺术创作 GAN实现了极高的真实感。使用 ArtBreeder,用户可以制作令人眼花缭乱的作品。例如,用户可以先选择一张脸,然后选择其他脸的眼睛和嘴来建立一张新的脸。利用这些技术产生的效果是如此的真实,以至于很难区分它们的真实性。这给了艺术家一种全新的艺术创作手段。
以 基于GAN的技术:
是将一组图像数据转换为另一组图像数据的算法。该方法采用了一种新的方法 GAN算法采用两个发生子和两个区分子的方法来完成图像的转换。循环 GAN可用于将一种类型的艺术转化为另一种类型的艺术,或将图片转化为油画等。
其中一个主要用途是“域变换”,即“场景变换”,它可以把一幅画变成梵高、现实或现实。

2)风格迁移技术

风格迁移是将一个图像的艺术风格应用到另一个图像上的算法。它基于卷积神经网络CNN),输入图像可以分解为不同的层和通道,然后将每个层和通道的特征图与目标风格的特征图进行比较。最近,风格迁移被用来生成与现实世界不同的独特艺术作品 3D 场景、动画图像等。

例如,以下每张图片都有不同的艺术风格:

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

有些事情在艺术界可能没有明确的定义,如何将一个图像的风格变成另一种风格更难定义。在神经网络之前,图像风格迁移程序有一个共同的想法:分析某种风格的图像,为该风格建立数学或统计模型,然后改变要迁移的图像,使其更好地符合建立的模型。这样做效果很好,如下面三张图所示,但有一个很大的缺点:一个程序基本上只能做某种风格或场景。因此,基于传统风格迁移研究的实际应用非常有限。

两篇文章改变了这一现状 Gatys 在此之前,程序模仿任何图片都是不可想象的。

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

事实上,从纹理到图片风格只有两个步骤。第一步也很神奇,是的 Gatys 发现纹理可以描述一个图像的风格。严格来说,文理只是图片风格的一部分,但如果不仔细研究纹理和风格的区别,乍一看感觉差不多。第二步是如何只提取图片内容而不包括图片风格。这两点是他在第二篇论文中所做的:Gatys 又偷了个懒,把物体识别模型拿出来再用一次,这次不拿 Gramian 计算统计模型,直接将局部特征视为相似的图片内容,从而获得一个将图片内容与图片风格(直率地说,是纹理)分开的系统,其余的是将一张图片的内容与另一张图片的风格结合起来。合起来的方法是让神经网络“梦见”狗的方法,也就是研究人员玩的方法 Deep Dream,找到可以提取神经元激活的图片,使其具有适当的特征。

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

3)自适应生成

自适应生成是一种利用对抗损失和重建损失来训练生成器的算法,它可以生成新的数据样本,如图像、文本、音频等。其目标是通过学习输入数据的特征分布来生成类似于输入数据的新数据。

自适应生成算法的基本思想是建立一个生成模型,可以学习输入数据的概率分布,并在学习过程中调整模型参数,以最大限度地减少生成数据和真实数据之间的差异。这样,模型就可以生成类似于输入数据的新数据。它有以下类别:

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

最简单的例子:如果我们想制作一个自适应性学习的产品,我们首先假设计算机根本无法判断学生的能力水平,而老师会做出判断。判断后,计算机将推送相应的课程。

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

例如:英语作文批改

用户在网站上输入了自己的托福作文。提交后,作文被发送到队列中等待手动注释。老师收到新作文后,标记了学生作文的各个部分,哪些单词拼错了,用错了,哪些固定搭配错了,哪些语法有问题,文章结构有什么问题。批改后,学生会收到老师的评价,以及系统自动推送的单词、语法和结构课程。就算法而言,逻辑非常简单。总共会有几种错误类型和相应的课程。只要学生在作文中犯了一些错误,他们就会自动推动这类课程。此外,最著名的自适应生成算法生成对抗网络(GAN)。它可以学习艺术家的风格和技巧,然后生成新的艺术作品。自适应生成可用于生成逼真的肖像、风景画和动画角色。

4)DeepDream 算法

通过反向传播深度神经网络的激活函数,产生幻觉图像。该算法可生成以下图片:

AIGC绘画算法基于深度学习,其与传统机器学习有一些区别

首先,在卷积神经网络(以下简称 CNN)在研究中,我们对准确的图片分类并不满意,我们也想知道网络中的每一层甚至每一个神经元都学到了什么。可视化每个神经元的内容将非常有用。

那么如何对 CNN 可视化中的一个神经元?

Deep Dream 想法是学习一张图片,使神经元能够最大限度地激活。从值的角度来看,是使神经元的输出值最大。

更一般地说,它不仅可以最大化某一神经元的输出,而且还可以最大化一组神经元的输出,或某一层的总输出。这是多个神经元的混合可视化结果。因此,Deep Dream 图片是基于训练好的卷积神经网络生成的。生成图片时,神经网络冻结,即网络的权重不再更新,只更新输入图片。