Комментарии:
感謝黃敬峰先生提供字幕
Ответить视频内容非常有趣!有些事我不明白:我的okx钱包里面有usdt,我有恢复短语。「pride」-「pole」-「obtain」-「together」-「second」-「when」-「future」-「mask」-「review」-「nature」-「potato」-「bulb」: 我应该如何把它们变成比特币?
Ответить李老师真是台湾的mvp
Ответить为什么中间产物是图片的压缩版本,是考虑到内存大小的原因吗?
Ответить棒
Ответить雪中送炭, 非常感谢李宏毅老师.
Ответить老師不好意思請教您一個問題,假設我訓練模型時某筆訓練資是雜訊n、文字敘述是" a cat in the snow"。那如果我在inference的時候,剛好也sample出雜訊n,但文字敘述是"a person in the snow",請問這樣模型的輸出會不會就是我們想要的" a person in the sow" ?
Ответить感谢课程分享
Ответитьthx and god bless.. regards from hong kong ^_^
Ответить太Nice了!!!圈粉了,学到了很多!
Ответитьinstalled, everything works, thanks!
Ответить感谢老师的解说。很容易懂
Ответить感谢感谢,讲的太好了
Ответить李老师的课没有高谈阔论,一次听懂,讲得通俗易懂
Ответить請問哪邊可以進一步了解encoder ,不太清楚用途和原理
Ответить老师怎么不更新了?
Ответить有一个紧跟前沿技术又会讲课的高水平老师,是学生们的幸事。感谢李老师无私分享😘
Ответить讲的太好了,李老师。让没做过生成模型的我也对SOTA的生成式模型有了大致的了解,十分感谢!
Ответить2年没关注图像生成领域,怎么GAN已经没人在玩了吗?
Ответить听的懵逼,还没有更基础一点的教程
Ответить老師請問一下,像stable diffusion下載的safetensor, ckpt, LoRa都對應到diffusion model嗎?然後VAE對應到decoder model嗎?
Ответить这个Decoder感觉训练是在整个loop之外的?有些迷惑。
Ответить有機會聽到老師說明LORA嗎?哈哈
Ответить好有趣的课程
Ответить那中间产物直接是小图不是更方便吗?为何还会有选择中间产物是latent representation的呢?
Ответить感謝老師上傳影片,以前學生時期碩論是做ML相關(約10年前),但畢業開始工作後就完全沒碰了,最近AI應用暴發,回來看才發現已經有一堆名詞不認識,老師影片真的造褔了廣大的學子們。 有發現老師影片並不是全部都有字幕,就想到不知道現在的AI在幫忙產生影片SRT字幕檔上的效果如何。
Ответить讲的很清楚👍
Ответить哇 期待!
Ответить週更影片中我最想追的就是李老師的教學影片了!
Ответить下週停更一次喔
Ответить感覺生文字也能用這個套路
Ответить请教老师,a cat in the snow, 当text encoder时候,是每一个token生成对应向量,那么5个token有5个向量,10个token十个向量.Denoise module需要处理连续的不确定长度的向量,有点像rnn,lstm, 还是说a cat in the snow这句话直接encode成一个向量。有点像SentenceTransformer, 把整个句子的意思转变成一个向量。
Ответить讲错了一个东西,Midjourney在生成过程中,要把有噪声的latent转成x0再给decoder,这样就有模糊的过程图。不是把带噪声的latent直接给decoder,这样子出来的会全是噪声
Ответить請問stereo mix就是立體混音嗎? 那開啟google文件聽寫,錄音檔播放之後,桌機電腦需要另外接並開啟喇叭和麥克風嗎?
Ответить這禮拜也跟上進度了 感謝老師!!
ОтветитьPlease share the transcript of your lecture.
Ответить超级好
Ответить講的太好了,簡直是人類版的ChatGPT
Ответить老師 你的影片沒有逐字稿 我有幫你生成 該如何給你呢~
Ответить讲的太好了
Ответить最想聽的課程來了!!!🎉🎉🎉
Ответить