王木头学科学
王木头学科学
  • Видео 35
  • Просмотров 616 856

Видео

一个天文摄影的极简入门
Просмотров 9066 месяцев назад
一个天文摄影的极简入门
哥德尔不完备视角下的自然数为什么如此特殊?这个问题隐藏着数学和世界真实性的线索
Просмотров 6 тыс.9 месяцев назад
哥德尔不完备视角下的自然数为什么如此特殊?这个问题隐藏着数学和世界真实性的线索
真随机存在吗?量子力学如何超越概率论?经典概率和量子概率的联系与区别
Просмотров 7 тыс.10 месяцев назад
真随机存在吗?量子力学如何超越概率论?经典概率和量子概率的联系与区别
2. 如何用概率论解决真实问题?用随机变量去建模,最大的难题是相关关系
Просмотров 3,2 тыс.Год назад
2. 如何用概率论解决真实问题?用随机变量去建模,最大的难题是相关关系
1. 从头开始,把概率、统计、信息论中零散的知识统一起来
Просмотров 13 тыс.Год назад
1. 从头开始,把概率、统计、信息论中零散的知识统一起来
7. 程序员的性格为什么那么轴,那都是有原因的
Просмотров 5 тыс.Год назад
7. 程序员的性格为什么那么轴,那都是有原因的
卷积神经网络的底层是傅里叶变换,傅里叶变换的底层是希尔伯特空间坐标变换
Просмотров 51 тыс.Год назад
卷积神经网络(CNN)为什么可以识别特征? 从傅里叶变换角度解释其中的原理 从希尔伯特空间坐标系变换解释傅里叶变换
学习分享一年,对神经网络的理解全都在这40分钟里了
Просмотров 160 тыс.Год назад
学习分享一年,对神经网络的理解全都在这40分钟里了
6. 软件工程背后的思想是如何影响编程的
Просмотров 9 тыс.2 года назад
面试官如果问,你是如何理解软件工程的?也许你可以参考这个视频回答
教科书为什么反人性?我们还可以如何学?
Просмотров 3,3 тыс.2 года назад
教科书为什么反人性?我们还可以如何学?
5. 深度学习和元胞自动机有什么关系?会给编程带来什么样的颠覆性改变?
Просмотров 7 тыс.2 года назад
5. 深度学习和元胞自动机有什么关系?会给编程带来什么样的颠覆性改变?
4. 用“λ演算法”去理解,为什么函数式编程会有更少的bug
Просмотров 9 тыс.2 года назад
4. 用“λ演算法”去理解,为什么函数式编程会有更少的bug
3. 编程是如何用数学解决现实问题的?
Просмотров 5 тыс.2 года назад
3. 编程是如何用数学解决现实问题的?
2. 为什么所有编程语言都是数据+指令?
Просмотров 4,9 тыс.2 года назад
2. 为什么所有编程语言都是数据 指令?
1. 非计算机专业学编程难在哪?
Просмотров 7 тыс.2 года назад
1. 非计算机专业学编程难在哪?
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
Просмотров 4,3 тыс.2 года назад
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
分享自己考研成功上岸的独门绝技,也是自己度过各种人生危机的心法
Просмотров 5 тыс.2 года назад
分享自己考研成功上岸的独门绝技,也是自己度过各种人生危机的心法
VC维是如何推导出来的?为什么说它是机器学习理论最重要的发明?
Просмотров 6 тыс.2 года назад
VC维是如何推导出来的?为什么说它是机器学习理论最重要的发明?
如果大数定律失效,机器学习还能学吗?幂律分布可以告诉你答案
Просмотров 6 тыс.2 года назад
如果大数定律失效,机器学习还能学吗?幂律分布可以告诉你答案
用VC维度理解SVM的结构风险最小化 & VC维是理解正则化的第4个角度
Просмотров 1,6 тыс.2 года назад
用VC维度理解SVM的结构风险最小 & VC维是理解正则化的第4个角度
什么是SVM,如何理解软间隔?什么是合叶损失函数、铰链损失函数?SVM与感知机横向对比,挖掘机器学习本质
Просмотров 4,6 тыс.2 года назад
什么是SVM,如何理解软间隔?什么是合叶损失函数、铰链损失函数?SVM与感知机横向对比,挖掘机器学习本质
贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?
Просмотров 6 тыс.2 года назад
贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?
“L1和L2正则化”直观理解(之二),为什么又叫权重衰减?到底哪里衰减了?
Просмотров 3,4 тыс.2 года назад
“L1和L2正则化”直观理解(之二),为什么又叫权重衰减?到底哪里衰减了?
“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解
Просмотров 8 тыс.2 года назад
“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解
“拉格朗日对偶问题”如何直观理解?“KKT条件” “Slater条件” “凸优化”打包理解
Просмотров 13 тыс.2 года назад
“拉格朗日对偶问题”如何直观理解?“KKT条件” “Slater条件” “凸优化”打包理解
从无穷小来看,芝诺悖论错哪了?1=0.999...吗?ε-δ描述极限到底严谨在哪?微分就是无穷小吗?
Просмотров 4,1 тыс.2 года назад
从无穷小来看,芝诺悖论错哪了?1=0.999...吗?ε-δ描述极限到底严谨在哪?微分就是无穷小吗?
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
Просмотров 9 тыс.2 года назад
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
Просмотров 12 тыс.2 года назад
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
Просмотров 25 тыс.2 года назад
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白

Комментарии

  • @huazhu
    @huazhu День назад

    图像这个卷积运算其实是相关运算,但相关运算和卷积运算公式形式一致只是倒一下个,所以老外也把它叫做卷积。但死脑筋的我认为这是错误的,应该就叫相关运算,信号处理的书上就有很清楚的定义。不要迷信老外,在你不知道的地方,老外也可能蠢得很。卷积主要考虑的是所有的信号累积的滞后效应,显然静态图片并没有左边信号对右侧的滞后效应,反之亦然。但是动态图像(movie)在时间上就会有滞后效应,就有可能施加真正的卷积运算,那时就要把时间倒过来乘上去了,这是我的推测。

  • @yoyooversea
    @yoyooversea День назад

    11:33 精彩

  • @yoyooversea
    @yoyooversea День назад

    该理念是不是也可以应用于量子力学中的波动、矩阵、路径积分之间关系的理解?

  • @jmo6688
    @jmo6688 2 дня назад

    复习一遍以前学过但一知半解的东西

  • @yoyooversea
    @yoyooversea 2 дня назад

    高高手!仰慕!

  • @croissant0329
    @croissant0329 3 дня назад

    挺有深度的

  • @yoyooversea
    @yoyooversea 3 дня назад

    梯度下降法,讲解得相当通俗易懂!

  • @bingdiexu
    @bingdiexu 3 дня назад

    感谢 太棒了 虽然我没有完全理解 我明天再详细多看几遍

  • @bingdiexu
    @bingdiexu 3 дня назад

    感谢 太棒了 虽然我没有完全理解 我明天再详细多看几遍

  • @bingdiexu
    @bingdiexu 3 дня назад

    感谢 太棒了 虽然我没有完全理解 我明天再详细多看几遍

  • @wuoshiwzm001
    @wuoshiwzm001 4 дня назад

    标题党

  • @haitaozhu9518
    @haitaozhu9518 5 дней назад

    深入浅出!游刃有余!

  • @haitaozhu9518
    @haitaozhu9518 5 дней назад

    哈哈,得看十遍。

  • @haitaozhu9518
    @haitaozhu9518 5 дней назад

    精彩绝伦!谢谢!

  • @flyisland2009
    @flyisland2009 7 дней назад

    最好的Transformer解释!

  • @nickinsiliconvalley1777
    @nickinsiliconvalley1777 7 дней назад

    我看完了论文其实都没有懂,是看完了这个视频才真正明白了

  • @KeZhang-sd6rl
    @KeZhang-sd6rl 8 дней назад

    学习了

  • @mengchenlo4972
    @mengchenlo4972 9 дней назад

    非常感謝

  • @stQZuO
    @stQZuO 10 дней назад

    基本上是把概率的测度基础用直观语言描述出来了

  • @JK-sy4ym
    @JK-sy4ym 13 дней назад

    最了不起的是可以用听故事的方式把知识学到了,稳稳稳

  • @wojohn6441
    @wojohn6441 13 дней назад

    打最好的比方,深入浅出,耐心细致....... 赞!

  • @user-cm4ce5fh4q
    @user-cm4ce5fh4q 13 дней назад

    恰饭都恰的这么优雅

  • @oliverwang1560
    @oliverwang1560 14 дней назад

    王木头辛苦了

  • @oliverwang1560
    @oliverwang1560 14 дней назад

    感谢王木头老师的付出,太棒了。

  • @calvinchen6652
    @calvinchen6652 15 дней назад

    讲的非常好👍 果断订阅点赞,希望继续做下去,加油👍

  • @kenlee5374
    @kenlee5374 15 дней назад

    很棒的表達方式,比怕錯以純數學照本宣科來說,執得鼓勵

  • @user-nr8oi6nv3r
    @user-nr8oi6nv3r 15 дней назад

    ❤❤❤

  • @user-nr8oi6nv3r
    @user-nr8oi6nv3r 15 дней назад

    😮😮😮

  • @smocare7659
    @smocare7659 16 дней назад

    博主太牛了, 而且讲课的思维方式和愿意和观众分享自己的学习过程的讲课方式让人耳目一新,让人知其然,也知其所以然,我愿意做你铁粉,而且把你当做我的榜样和目标!

  • @user-ju1qd9ek2m
    @user-ju1qd9ek2m 17 дней назад

    清晰易懂

  • @chunxiaozhou3799
    @chunxiaozhou3799 17 дней назад

    感觉是范畴论的想法

  • @doubleweijason9215
    @doubleweijason9215 17 дней назад

    up 应该去搞讲座

  • @BOB-yf4rg
    @BOB-yf4rg 18 дней назад

    很清楚,謝謝您

  • @sciab3674
    @sciab3674 19 дней назад

    继续啊 我也在学这东西 看到你视频很受益 咱把CNN都搞明白了 再学其他神经网路😂

  • @jerryyang7011
    @jerryyang7011 19 дней назад

    Seeing the forest for the trees - dots connected under this unified yet elegant framework. Phenomenal work.

  • @JK-sy4ym
    @JK-sy4ym 19 дней назад

    太棒了五体投地

  • @JK-sy4ym
    @JK-sy4ym 20 дней назад

    Thanks!

  • @qaqpiano1298
    @qaqpiano1298 20 дней назад

    位置编码完全看不懂

  • @michaelzap8528
    @michaelzap8528 20 дней назад

    实话实说。 你以前的视频都非常好。 但从这一期开始,所谓的梯度下降法,开始暴露出你对于机器学习的哲学和抽象级别的理解的欠缺。这导致了这一期讲解的内容开始不知所云。 你原来的机器学习的开场思路是非常正确的。 其实你应该顺着傅立叶变换的思路展开学习和讲解,你你会发现所谓的深度学习 包括大语言的transformer等等都异常的简单和自然。理解和实际操作实现,不是一件困难的事。

  • @qaqpiano1298
    @qaqpiano1298 20 дней назад

    完了,一头雾水

  • @MrSilicon12
    @MrSilicon12 20 дней назад

    王老师很好。很好的视频。

  • @JK-sy4ym
    @JK-sy4ym 21 день назад

    厉害厉害👍🏻

  • @akaiwon6594
    @akaiwon6594 23 дня назад

    影片最基礎的思想有問題吧,數字不管變成哪個進制,實際值都是不會改變的唷,無限不是進制的問題。 然後拍在這個世界中應該不存在唷,因為任何一個圓都不是正圓。其實不要說拍啦,就說數字1,在這個世界上也不存在啊,1只存在於邏輯思維中,功能是為了方便計算,但是世界上任何事物都不是1啊,不管是1個人、一隻牛、一朵花,這些事物都不是1,1也不是這些事物,世界上沒有數字唷,所謂的數字,是只存在于理型世界中的工具,因此只會出現在我們的思維中,不存在於世界上。 無限是BUG嗎?恩,雖然世界上沒有無限,但是無限應該是真實存在的,儘管無限在我們這個世界被降級了,但是依然可以體驗到無限的特性,有想到是什麼嗎?就是光啊,光速恆定不可疊加,就算光速前進,看光依然是光速,這不就是無限的特性嗎?無限加上無限依然是無限,雖然光在我們這個世界被降到每秒三十萬公里,但是光速實際上應該是無限的,才能表現出無限的特性,也間接證實了無限的確存在,只是不在我們這個世界,應該跟數一樣,都只存在於理型世界。 我發現好像數理相關的人,都有那種可以用數學來瞭解世界的想法,還是每個學科的人都以為自己所學可以理解世界。不過我要提醒一下,數學不是用來理解世界的,數學是用來計算的,為了方便計算,所以數學將所有事物都抽象化,去掉那些跟計算無關的部分,因此可以很快的建立模型,算出結果,而且很有用,所以現代文明飛速進展。但是不管怎麼說,數學的模型就是一個為了計算而簡化的結果,跟世界本質無關。比方說,現在要做人口普查,統計男女比例,因此所有不同的人,都化成一個個的數字,不管張木頭李木頭王木頭都被抽象化成為男+1,每個人之間各種特質經歷記憶情感,全部都被捨棄,只因為跟這次的計算無關,這樣才能高效運算。但是真實的世界是無法被抽象的,所有人的特質經歷記憶情感等等都是實際存在的,別在不需要計算的時候依然帶著數字的簡化眼鏡看世界。

  • @jerryjerry666
    @jerryjerry666 25 дней назад

    顺着这个逻辑,CNN既然主动放弃理解全局信息,为什么Transformer的好处又是可以理解全局信息呢?还是说这两者的全局不太一样

  • @sycamore12345
    @sycamore12345 27 дней назад

    书出了没有?

  • @kunmike
    @kunmike 28 дней назад

    突然相信我们是高维世界的投影

  • @smocare7659
    @smocare7659 Месяц назад

    必然事件就不应该掺和到概率论里面来

  • @mingyanghe4452
    @mingyanghe4452 Месяц назад

    nb

  • @jamesmina7258
    @jamesmina7258 Месяц назад

    感谢木头老师,受益匪浅。

  • @user-pv7fm9ep5e
    @user-pv7fm9ep5e Месяц назад

    好强大,我有些看不懂呢