Post

生成式學習的兩種策略:要各個擊破,還是要一次到位

生成式學習的兩種策略:要各個擊破,還是要一次到位

生成式AI—生成有结构的复杂物件,如文句、影像、语音

策略1:各个击破

截屏2026-01-24 19.57.57

Autoregressive(AR) Model

产生代表结束的符号时停下来

策略2:一次到位

截屏2026-01-24 19.59.14

Non-autoregressive(NAR) Model

怎么知道结束?

法一:固定输出长度,碰到[END],后面直接丢掉

法二:先输出一个数字,再生成这么多个字

截屏2026-01-24 20.00.57

各个击破像是“串行化”,一次到位像是“并行化”

各个击破的生成品质通常比较好,因为在产生下一个token的时候会受到上一个token的影响,可能会产生一些看起来很奇怪的答案

语音合成领域

截屏2026-01-24 20.04.33

也可以使用“N次到位”,也就是多次反复进行一次到位的操作,比如先产生模糊的图片,然后再越来越清楚

Diffusion Model

This post is licensed under CC BY 4.0 by the author.

Trending Tags