【生成式AI 2023】用語言模型來解釋語言模型 (上)

Поделиться
HTML-код
  • Опубликовано: 13 апр 2025

Комментарии • 19

  • @HungyiLeeNTU
    @HungyiLeeNTU  Год назад +60

    在影片中多次出現的通知音,是有人加入 Google Meet 上課直播時的提示聲。我上課時確實已關閉電腦的喇叭,原本以為這樣就不會錄到這些通知音,然而,我遺漏了將 Power Cam 的設定調整為不錄製系統音,在此表示歉意

    • @linhonghui
      @linhonghui Год назад +30

      表达什么歉意,你是我爹

    • @AI_Taiwan_MADE
      @AI_Taiwan_MADE Год назад +1

      感謝老師非常用心!

    • @houwenhe4748
      @houwenhe4748 Год назад +5

      没事啦,觉得课程无聊才会在意这些有的没的,看李老师的视频每次都会特别期待特别集中,根本不会在意这些细节啦

  • @GoGoNow
    @GoGoNow Год назад +5

    非常喜歡聽老師講課 獲益良多 謝謝老師

  • @客家饒舌執牛耳
    @客家饒舌執牛耳 Год назад +5

    等老師開課都等到流口水了

  • @jessexing3456
    @jessexing3456 Год назад +4

    太喜欢李老师了, 来自大陆的感谢

  • @蒂蒂-f7o
    @蒂蒂-f7o Год назад +1

    謝謝老師🥳🥳🥳
    週六來上課💪💪💪

  • @riwuowo
    @riwuowo Год назад +5

    13:45
    神經元判斷規律被破壞的原因好像不是美國總統的名字 , 而是單字開頭字母大小寫
    因為這個神經元只對 "5 ebullient" 小寫的 "e" bullient產生反應

  • @Lawrence-dz3dl
    @Lawrence-dz3dl Год назад +1

    謝謝老師的講課 !!

  • @貓你一拳-l6o
    @貓你一拳-l6o Год назад

    未看先推 大師

  • @harrison_chiu
    @harrison_chiu Год назад +8

    看完上下兩篇在想說,他們算出了所有神經元的解釋分數,那如果將GPT2中分數低於一定數值的神經元修剪掉,能不能用更少的神經元還保留GPT2一定的能力呢

    • @HungyiLeeNTU
      @HungyiLeeNTU  Год назад +4

      這個想法蠻不錯的😊

    • @ruofanliu98
      @ruofanliu98 Год назад +2

      你的想法还挺新颖的。不过分数低有没有可能是因为他跟其他的神经元共同解释一个concept,或者是它总结的是无法直观理解的统计性质,那这样的话剪掉它不确定会不会对其他神经元或者整个模型产生一些负面的影响。

  • @Ken-S
    @Ken-S Год назад

    同理的話題AI可以訓練AI的會不會有一天像西部世界一樣😆

  • @v86861062
    @v86861062 Год назад

    好酷

  • @mixshare
    @mixshare Год назад

    🎉🎉🎉

  • @icashwave
    @icashwave Год назад +1

    請教,用AI解釋AI,最終目的是為了做什麼?
    我胡思亂想,OpenAI之目的可能為:以後可能以人工修改神經元的參數,讓語言模型更為精準或更聰明。好比,人類尋找人類的DNA編碼,然後修改有瑕疵的DNA片段,生出超級人類物種。

    • @bugmoonlist
      @bugmoonlist Год назад

      同意, 我也猜瘋狂科學家希望用GPT4的推理規劃能力,讓GPT X能夠自己開發下一代GPTX+1 版本的模型,創造AI的奇異點