vivo 前端智能化实践:机器学习在自动网页布局中的应用

ccc908 2023-05-03 11:53:59

一、背景

 

切图作为前端的传统手艺却是大多数前端开发者都不愿面对的工作。

 

为了解决切图的各种问题,人们绞尽脑汁开发了各种各样的设计稿转代码(D2C)工具,这些 D2C 工具随着设计师使用的软件的变更又在不断地迭代。

 

从 Photoshop 时代,前端需要手动标记节点进行单独的样式导出(如图 1),到 sketch measure,可以整体页面输出(如图 2),其效率、结果都已经有了一个质的提升。

 

但是还是未能彻底解决切图的问题,因为设计稿所包含的信息只负责输出样式,而没有办法输出网页布局,我们还是没有办法直接 copy 生成的代码到我们的项目中直接使用。

 

图 1

 

图 2

 

在学习现有的 D2C 案例的过程中,我们发现很多成熟的方案中引用了机器学习辅助代码的生成,其中绝大多数的工作是用于视觉识别和语义识别,于是我们想,机器学习是否能够应用到网页的布局中呢?

 

为了验证我们的猜想,也为了解决我们工作中的实际痛点,我们决定自己开发一个 D2C 工具,希望能够通过机器帮我们实现网页布局的过程,整体工作流程大致如图 3,首先获取设计稿的元数据,然后对设计稿的数据进行一系列的处理导出自由的 dsl,然后根据这个 dsl 生成相应端的代码。

 图 3

 

二、页面布局

 

要处理网页的布局需要解决两个问题,节点的父子关系以及节点之间的位置关系。

 

2.1 节点的父子关系

 

节点的父子关系指的是一个节点包含了哪些子节点,又被哪个节点所包含。这部分的内容可以直接使用规则处理,通过节点的顶点位置和中心点的位置信息判断一个节点是否是另一个节点的子节点。这里我们就不展开讨论了。

同一层级节点之间的位置关系,才是我们这次着重需要解决的问题。

 

2.2  节点之间的位置关系

 

网页的布局有很多种,线性布局,流式布局,网格布局,还有随意定位的绝对定位等等,而我们在导出样式的时候,无非需要确认两件事情,节点的定位方式(relative、absolute、fixed)和节点的布局方向(纵向、横向)。

 

 

线性布局

 

 流式布局

 

 

网格布局

 

按照平时切图的习惯,我们会首先识别一组平级节点之间有没有明显的上下或者左右的位置关系,然后将他们放入到网格中,最后独立在这些节点外面的节点就是绝对定位。

 

让机器识别节点之间的位置关系,就成了解决问题的关键一环。

 

 

判断节点之间的位置关系只需要节点的位置和宽高信息,因此我们的输入数据设计如下:

[    {        width:200,        height:50,        x:0,        y:0    },    {        width:200,        height:100,        x:0,        y:60    },    {        width:200,        height:100,        x:210,        y:60    }]

 

同时我们希望获得的输出结果是每一个节点是上下排列,左右排列,还是绝对定位的,输出的数据设计如下:

[    {        layout:'col'    },    {        layout:'row'    },    {        layout:'absolute'    }]

 

起初我们是希望通过书写一定的规则进行布局的判断,通过判断前后两个节点的位置关系是上下还是左右来进行布局,然而这样只关注两个节点位置关系的规则却很难判断绝对定位的节点,并且固定的规则总是不够灵活。于是我们想到了善于处理分类问题的机器学习。

 

很显然通过大量数据训练的机器学习模型可以很好的模仿我们平时切图的习惯,在处理各种边缘场景的时候也能够更加的灵活。只要进行合理的模型设计,就可以辅助我们进行布局的处理。

 

三、为什么是 self-attention?

 

从上文我们可以看出,我们需要训练一个模型,输入一个节点的列表,输出一个节点的布局信息,是不是有点像文本识别里面的词性翻译呢?

 

对于具体的一个节点,我们是没有办法判断其真正的布局的,只有将其放到文档流中结合上下文来看才能体现出其实际的意义。

 

在处理词性标记这块,RNN (循环神经网络)、LSTM (长短期记忆网络) 都比较合适此类场景,RNN 作为经典的神经网络模型通过将前一次训练的权重带入到下一次训练中建立上下文的关联,LSTM 作为 RNN 的一种变体解决了 RNN 难以解决的长期依赖问题,用来训练网页布局看起来是一个不错的选择。

 

 

RNN(循环神经网络)

 

665px                                LSTM (长短期记忆网络)

 

使用 LSTM 的确可以解决我们的问题,但是由于此类神经网络对于时序的依赖导致上下文的数据没有办法进行并行运算,这使得我们的计算机没有办法更高效的训练模型,并且网页布局只需要获取不同节点的定位信息,对于装载的顺序并没有强要求。

 

随着 2017 年的一篇文章《Attention is All you Need》的横空出世,整个机器学习领域迎来了新一轮的革命,目前最主流的框架 transformer、BERT、GPT 全是在 attention 的基础上发展起来的。

 

self-attention 自注意力机制是 attention 机制的变体,通过全局关联权重得出单个向量在全局中的加权信息,因为每一个节点都采用相同的运算方式,所以同一个序列中的节点可以同时进行上下文计算,极大地提升了模型训练的效率,也更方便我们优化和回归模型。

 

 

self-attention

 

综上,考虑到 attention 对于上下文更好的关联和更好的并行性能,我们决定基于此进行建模。

 

四、模型设计

 

我们起初设计了一个输出的向量用于识别数据处理的结果,[1,0,0,0] 代表是正常的竖向排列,[0,1,0,0] 代表了横向排列,以此类推依次代表了 absolute 和 fixed 定位方式,但是后来我们发现 fixed 由于是相对于整个页面的定位方式,所以在单一层级下很难做标记,所以我们将输出值精简成了竖向排列,横向排列和绝对定位三种情况。

模型的整体设计如下,通过 self-attention 将节点转化为上下文信息,再通过前馈神经网络将上下文信息训练成具体的布局。

 

 

(1)在获取到一组数据后,为了去掉数值的大小的影响,我们首先对数据进行一次归一处理,将输入数据的每一个值分别除以这一组数据中的最大值。

(2)将每一组数据分别进行三次线性变换, 得到每组数据相应的 Q,K,V,接下来我们就可以进行 self-attention 运算了。

(3)我们以 node1 为例,如果需要计算 node1 和其他节点的相关性,则需要使用 Q1 分别和每一个节点的 key 进行点积操作,将他们的和与 V1 相乘,为了防止权重值相乘以后过大,最后进行一次 softmax 计算,就得到了 node1 和其他节点的上下文信息。

 

 

我们将一组数据中所有 QKV 看成三个矩阵,得到的上下文 context 的集合就可以看成一个矩阵计算。

(4)为了提升训练的效果,每个节点的上下文信息输入到前馈神经网络进行最后的布局结果的训练,将得到的结果进行 softmax 计算就可以得到单个节点在一组数据中布局的概率分布了,由于同一组节点的运算没有前后顺序,故单个节点的运算可以同时进行,配合 GPU 加速极大地提升了训练的效率。

 

五、数据准备

 

由于机器学习需要海量的数据,数据的数量和质量都会极大地影响模型最终的训练效果,所以数据的数量和质量都非常重要,我们采用了三种数据源用于数据的训练,分别是标记过的设计稿,抓取的真实网页数据,以及自动生成的数据。

 

5.1 设计稿的标记

 

在获取到设计稿数据以后只取每个节点的定位和宽高数据,通过上文的父子关系处理后获取每一层的节点数据,为了防止出现过拟合的情况我们去掉节点数量相对较少的层级,并对每一层的布局进行手动标记。设计稿标记数据是质量最好,但也是最费时费力的工作,所以需要其他的数据源进行数量的补充。

 

5.2 真实网页的抓取

 

作为标记设计稿的补充,网页中的真实数据也是可靠的数据源,但是抓取网页的过程中最大的难点在于判断页面中的节点属于横向还是纵向。

 

由于实现横向排列的方式千奇百怪,可以通过 float,inline-block,flex 等等方法,我们如果只获取网页中节点的定位和宽高信息,还是需要手动标记他的布局,所以还是要从节点的 css 入手,在批量获取之后进行手动筛选,去掉低质量的数据。相对于标记的设计稿是一个有效的补充。

 

5.3 网页生成器

 

为了更快的生成大量的数据,我们写了一个网页生成的算法,在一开始就决定节点的定位方式,然后将节点渲染成网页,最后在抓取节点的定位信息,但是随机生成的数据存在一些不稳定的边界场景,譬如生成的绝对定位的节点会正好定位到横向布局的右边。这时就需要手动进行甄别。

 

 

我们最终收集了大约两万多条数据,经过反复的训练与调试,最终准确率稳定在 99.4% 左右,达到一个相对可用的水平。

 

 

使用真实的 dom 进行回归验证,可以看出准确的识别出了网页的横向竖向布局以及绝对定位的节点。

 

六、优化方向

 

6.1 元素换行

 

设计稿中会出现列表一行放不下然后换行的情况,这些节点应该是属于横向的位置关系,但是机器面对两行会将每一行的首个元素识别成纵向排布,这就需要对重复节点进行相似度检测,对相似节点采用相同的布局策略。

 

6.2 分组问题

 

基于规则的分组会导致两个不相交的节点不会分配到一个组里面,比如网格中的图标和文字,导致布局的时候会分成两个独立的组,可以通过训练常见的布局结合内容识别进行更精准的分组。

 

6.3 通用布局

 

通过 self-attention 机制我们不仅可以判断单个节点在其层级的布局信息,我们也可以进行发散,通过训练整个层级的节点数据得出当前节点属于卡片流,标签,个人信息页等功能性的标记,进一步推导出每个节点的功能,再结合节点具体的布局信息,不仅可以更好的实现网页的排布,还可以节点的功能推到实现标签的语义化。

 

6.4 数据生成

 

为了解决更多的网页布局问题,同时减少我们人工标记的工作量,可以运用强化学习模型开发一套网页生成工具,让我们的数据更接近真实的网页布局,从而使布局模型训练的结果更加贴近生产的场景。

 

七、总结

 

机器学习非常擅长处理分类问题,相比于传统的手写规则布局,机器学习是基于我们现有的开发习惯进行训练,最终生成的代码也更加贴近我们平时的切图习惯,代码的可读性和可维护性都更上一层楼。

 

而机器生成的静态页面相较于不同的人手写的静态页面,遵循一致的代码规范,代码风格也更加统一。

 

在模型搭建的过程中可以将具体的使用场景类比为文本或者图像领域的内容,便于寻找现有的模型进行迁移学习。

 

运用机器学习解决网页布局问题的核心在于建立节点的上下文的关联,通过了解各种经典的神经网络模型的运行原理我们选出了循环神经网络和自注意力机制这种能够建立上下文关联的模型,而通过对于其运行原理的进一步了解我们选择了更贴近网页布局场景以及运行效率更高的 self-attention 模型,由此也可以看出了解模型的运行机制可以更好的帮助我们解决实际的应用场景。


小知识分享:每一个HTML 文档中,都有一个不可或缺的标签:<head>,在几乎所有的HTML文档里, 我们都可以看到类似下面这段代码:

<head><meta charset=utf-8><meta http-equiv=content-type content=text/html; charset=utf-8><meta name=renderer content=webkit/><meta name=force-rendering content=webkit/><meta http-equiv=X-UA-Compatible content=IE=edge,chrome=1/><meta http-equiv=Content-Type content=www.sxhxtt.cn ;charset=gb2312><meta name=viewport content=width=device-width, initial-scale=1.0, minimum-scale=1.0, maximum-scale=1.0, user-scalable=no></head>

head标签作为一个容器,主要包含了用于描述 HTML 文档自身信息(元数据)的标签,这些标签一般不会在页面中被显示出来,主要告知搜索引擎本页面的关键字以及对应网址,在SEO中传递相关权重起到非常重要的作用。

 

...全文
116 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

791

社区成员

发帖
与我相关
我的任务
社区描述
区块链技术专区
区块链 技术论坛(原bbs)
社区管理员
  • 区块链技术
  • ccc908
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧