【生成式AI】Stable Diffusion、DALL-E、Imagen 背後共同的套路

【生成式AI】Stable Diffusion、DALL-E、Imagen 背後共同的套路

Hung-yi Lee

1 год назад

95,041 Просмотров

Ссылки и html тэги не поддерживаются


Комментарии:

@蒂蒂-f7o
@蒂蒂-f7o - 25.03.2023 13:39

最想聽的課程來了!!!🎉🎉🎉

Ответить
@jiacshane7952
@jiacshane7952 - 25.03.2023 16:10

讲的太好了

Ответить
@nikeshoxmiles123
@nikeshoxmiles123 - 25.03.2023 16:21

老師 你的影片沒有逐字稿 我有幫你生成 該如何給你呢~

Ответить
@TheBeader
@TheBeader - 25.03.2023 16:59

講的太好了,簡直是人類版的ChatGPT

Ответить
@洗金瓶-l8k
@洗金瓶-l8k - 25.03.2023 18:26

Ответить
@shanggangli369
@shanggangli369 - 25.03.2023 18:26

超级好

Ответить
@fgh680
@fgh680 - 25.03.2023 19:40

Please share the transcript of your lecture.

Ответить
@nanakaka7
@nanakaka7 - 25.03.2023 21:15

這禮拜也跟上進度了 感謝老師!!

Ответить
@jason77nhri
@jason77nhri - 26.03.2023 04:25

請問stereo mix就是立體混音嗎? 那開啟google文件聽寫,錄音檔播放之後,桌機電腦需要另外接並開啟喇叭和麥克風嗎?

Ответить
@peterlin963
@peterlin963 - 26.03.2023 05:14

讲错了一个东西,Midjourney在生成过程中,要把有噪声的latent转成x0再给decoder,这样就有模糊的过程图。不是把带噪声的latent直接给decoder,这样子出来的会全是噪声

Ответить
@femtogary3723
@femtogary3723 - 26.03.2023 06:44

请教老师,a cat in the snow, 当text encoder时候,是每一个token生成对应向量,那么5个token有5个向量,10个token十个向量.Denoise module需要处理连续的不确定长度的向量,有点像rnn,lstm, 还是说a cat in the snow这句话直接encode成一个向量。有点像SentenceTransformer, 把整个句子的意思转变成一个向量。

Ответить
@miku3920
@miku3920 - 26.03.2023 09:07

感覺生文字也能用這個套路

Ответить
@HungyiLeeNTU
@HungyiLeeNTU - 26.03.2023 11:42

下週停更一次喔

Ответить
@皇甫承佑-x5j
@皇甫承佑-x5j - 26.03.2023 12:52

週更影片中我最想追的就是李老師的教學影片了!

Ответить
@lingshanliu5812
@lingshanliu5812 - 27.03.2023 10:44

哇 期待!

Ответить
@FirminShao
@FirminShao - 27.03.2023 13:44

讲的很清楚👍

Ответить
@dorgon-research
@dorgon-research - 28.03.2023 05:27

感謝老師上傳影片,以前學生時期碩論是做ML相關(約10年前),但畢業開始工作後就完全沒碰了,最近AI應用暴發,回來看才發現已經有一堆名詞不認識,老師影片真的造褔了廣大的學子們。 有發現老師影片並不是全部都有字幕,就想到不知道現在的AI在幫忙產生影片SRT字幕檔上的效果如何。

Ответить
@ethaneaston6443
@ethaneaston6443 - 30.03.2023 17:37

那中间产物直接是小图不是更方便吗?为何还会有选择中间产物是latent representation的呢?

Ответить
@mikitan5782
@mikitan5782 - 02.04.2023 12:03

好有趣的课程

Ответить
@蘇柏廷
@蘇柏廷 - 04.04.2023 15:19

有機會聽到老師說明LORA嗎?哈哈

Ответить
@yoshiyuki1732ify
@yoshiyuki1732ify - 05.04.2023 02:40

这个Decoder感觉训练是在整个loop之外的?有些迷惑。

Ответить
@garfieldlavi
@garfieldlavi - 06.04.2023 13:55

老師請問一下,像stable diffusion下載的safetensor, ckpt, LoRa都對應到diffusion model嗎?然後VAE對應到decoder model嗎?

Ответить
@waltermossis2694
@waltermossis2694 - 10.04.2023 13:04

听的懵逼,还没有更基础一点的教程

Ответить
@ruanjiayang
@ruanjiayang - 10.04.2023 14:50

2年没关注图像生成领域,怎么GAN已经没人在玩了吗?

Ответить
@FirminShao
@FirminShao - 12.04.2023 08:53

讲的太好了,李老师。让没做过生成模型的我也对SOTA的生成式模型有了大致的了解,十分感谢!

Ответить
@飛鴻-q1c
@飛鴻-q1c - 13.04.2023 19:07

有一个紧跟前沿技术又会讲课的高水平老师,是学生们的幸事。感谢李老师无私分享😘

Ответить
@atlrytusername
@atlrytusername - 14.04.2023 09:59

老师怎么不更新了?

Ответить
@Aru-z4q
@Aru-z4q - 16.04.2023 07:56

請問哪邊可以進一步了解encoder ,不太清楚用途和原理

Ответить
@lidongxing
@lidongxing - 24.05.2023 06:27

李老师的课没有高谈阔论,一次听懂,讲得通俗易懂

Ответить
@716Lufei
@716Lufei - 05.06.2023 14:55

感谢感谢,讲的太好了

Ответить
@llyy7386
@llyy7386 - 18.06.2023 10:38

感谢老师的解说。很容易懂

Ответить
@wenquanchang4903
@wenquanchang4903 - 28.06.2023 17:27

installed, everything works, thanks!

Ответить
@binren8267
@binren8267 - 24.07.2023 22:56

太Nice了!!!圈粉了,学到了很多!

Ответить
@wuyanchu
@wuyanchu - 22.11.2023 13:45

thx and god bless.. regards from hong kong ^_^

Ответить
@pleasuremore
@pleasuremore - 05.12.2023 19:24

感谢课程分享

Ответить
@En-pe3sh
@En-pe3sh - 18.01.2024 08:38

老師不好意思請教您一個問題,假設我訓練模型時某筆訓練資是雜訊n、文字敘述是" a cat in the snow"。那如果我在inference的時候,剛好也sample出雜訊n,但文字敘述是"a person in the snow",請問這樣模型的輸出會不會就是我們想要的" a person in the sow" ?

Ответить
@iLOGICNOTE
@iLOGICNOTE - 29.01.2024 18:06

雪中送炭, 非常感谢李宏毅老师.

Ответить
@zhangbo0037
@zhangbo0037 - 19.05.2024 17:16

Ответить
@sanzhang-ph4pr
@sanzhang-ph4pr - 04.07.2024 18:14

为什么中间产物是图片的压缩版本,是考虑到内存大小的原因吗?

Ответить
@Richard-k5x4j
@Richard-k5x4j - 06.11.2024 19:22

李老师真是台湾的mvp

Ответить
@SonnnieCamacho-c5i
@SonnnieCamacho-c5i - 04.12.2024 08:41

视频内容非常有趣!有些事我不明白:我的okx钱包里面有usdt,我有恢复短语。「pride」-「pole」-「obtain」-「together」-「second」-「when」-「future」-「mask」-「review」-「nature」-「potato」-「bulb」: 我应该如何把它们变成比特币?

Ответить
@HungyiLeeNTU
@HungyiLeeNTU - 26.03.2023 11:41

感謝黃敬峰先生提供字幕

Ответить