![王木头学科学](/img/default-banner.jpg)
- Видео 35
- Просмотров 616 856
王木头学科学
Гонконг
Добавлен 7 июн 2021
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
Просмотров: 62 183
Видео
哥德尔不完备视角下的自然数为什么如此特殊?这个问题隐藏着数学和世界真实性的线索
Просмотров 6 тыс.9 месяцев назад
哥德尔不完备视角下的自然数为什么如此特殊?这个问题隐藏着数学和世界真实性的线索
真随机存在吗?量子力学如何超越概率论?经典概率和量子概率的联系与区别
Просмотров 7 тыс.10 месяцев назад
真随机存在吗?量子力学如何超越概率论?经典概率和量子概率的联系与区别
卷积神经网络的底层是傅里叶变换,傅里叶变换的底层是希尔伯特空间坐标变换
Просмотров 51 тыс.Год назад
卷积神经网络(CNN)为什么可以识别特征? 从傅里叶变换角度解释其中的原理 从希尔伯特空间坐标系变换解释傅里叶变换
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
Просмотров 4,3 тыс.2 года назад
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
用VC维度理解SVM的结构风险最小化 & VC维是理解正则化的第4个角度
Просмотров 1,6 тыс.2 года назад
用VC维度理解SVM的结构风险最小 & VC维是理解正则化的第4个角度
什么是SVM,如何理解软间隔?什么是合叶损失函数、铰链损失函数?SVM与感知机横向对比,挖掘机器学习本质
Просмотров 4,6 тыс.2 года назад
什么是SVM,如何理解软间隔?什么是合叶损失函数、铰链损失函数?SVM与感知机横向对比,挖掘机器学习本质
贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?
Просмотров 6 тыс.2 года назад
贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?
“L1和L2正则化”直观理解(之二),为什么又叫权重衰减?到底哪里衰减了?
Просмотров 3,4 тыс.2 года назад
“L1和L2正则化”直观理解(之二),为什么又叫权重衰减?到底哪里衰减了?
“拉格朗日对偶问题”如何直观理解?“KKT条件” “Slater条件” “凸优化”打包理解
Просмотров 13 тыс.2 года назад
“拉格朗日对偶问题”如何直观理解?“KKT条件” “Slater条件” “凸优化”打包理解
从无穷小来看,芝诺悖论错哪了?1=0.999...吗?ε-δ描述极限到底严谨在哪?微分就是无穷小吗?
Просмотров 4,1 тыс.2 года назад
从无穷小来看,芝诺悖论错哪了?1=0.999...吗?ε-δ描述极限到底严谨在哪?微分就是无穷小吗?
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
Просмотров 9 тыс.2 года назад
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
Просмотров 12 тыс.2 года назад
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
Просмотров 25 тыс.2 года назад
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
图像这个卷积运算其实是相关运算,但相关运算和卷积运算公式形式一致只是倒一下个,所以老外也把它叫做卷积。但死脑筋的我认为这是错误的,应该就叫相关运算,信号处理的书上就有很清楚的定义。不要迷信老外,在你不知道的地方,老外也可能蠢得很。卷积主要考虑的是所有的信号累积的滞后效应,显然静态图片并没有左边信号对右侧的滞后效应,反之亦然。但是动态图像(movie)在时间上就会有滞后效应,就有可能施加真正的卷积运算,那时就要把时间倒过来乘上去了,这是我的推测。
11:33 精彩
该理念是不是也可以应用于量子力学中的波动、矩阵、路径积分之间关系的理解?
复习一遍以前学过但一知半解的东西
高高手!仰慕!
挺有深度的
梯度下降法,讲解得相当通俗易懂!
感谢 太棒了 虽然我没有完全理解 我明天再详细多看几遍
感谢 太棒了 虽然我没有完全理解 我明天再详细多看几遍
感谢 太棒了 虽然我没有完全理解 我明天再详细多看几遍
标题党
深入浅出!游刃有余!
哈哈,得看十遍。
精彩绝伦!谢谢!
最好的Transformer解释!
我看完了论文其实都没有懂,是看完了这个视频才真正明白了
学习了
非常感謝
基本上是把概率的测度基础用直观语言描述出来了
最了不起的是可以用听故事的方式把知识学到了,稳稳稳
打最好的比方,深入浅出,耐心细致....... 赞!
恰饭都恰的这么优雅
王木头辛苦了
感谢王木头老师的付出,太棒了。
讲的非常好👍 果断订阅点赞,希望继续做下去,加油👍
很棒的表達方式,比怕錯以純數學照本宣科來說,執得鼓勵
❤❤❤
😮😮😮
博主太牛了, 而且讲课的思维方式和愿意和观众分享自己的学习过程的讲课方式让人耳目一新,让人知其然,也知其所以然,我愿意做你铁粉,而且把你当做我的榜样和目标!
清晰易懂
感觉是范畴论的想法
up 应该去搞讲座
很清楚,謝謝您
继续啊 我也在学这东西 看到你视频很受益 咱把CNN都搞明白了 再学其他神经网路😂
Seeing the forest for the trees - dots connected under this unified yet elegant framework. Phenomenal work.
太棒了五体投地
Thanks!
位置编码完全看不懂
实话实说。 你以前的视频都非常好。 但从这一期开始,所谓的梯度下降法,开始暴露出你对于机器学习的哲学和抽象级别的理解的欠缺。这导致了这一期讲解的内容开始不知所云。 你原来的机器学习的开场思路是非常正确的。 其实你应该顺着傅立叶变换的思路展开学习和讲解,你你会发现所谓的深度学习 包括大语言的transformer等等都异常的简单和自然。理解和实际操作实现,不是一件困难的事。
完了,一头雾水
王老师很好。很好的视频。
厉害厉害👍🏻
影片最基礎的思想有問題吧,數字不管變成哪個進制,實際值都是不會改變的唷,無限不是進制的問題。 然後拍在這個世界中應該不存在唷,因為任何一個圓都不是正圓。其實不要說拍啦,就說數字1,在這個世界上也不存在啊,1只存在於邏輯思維中,功能是為了方便計算,但是世界上任何事物都不是1啊,不管是1個人、一隻牛、一朵花,這些事物都不是1,1也不是這些事物,世界上沒有數字唷,所謂的數字,是只存在于理型世界中的工具,因此只會出現在我們的思維中,不存在於世界上。 無限是BUG嗎?恩,雖然世界上沒有無限,但是無限應該是真實存在的,儘管無限在我們這個世界被降級了,但是依然可以體驗到無限的特性,有想到是什麼嗎?就是光啊,光速恆定不可疊加,就算光速前進,看光依然是光速,這不就是無限的特性嗎?無限加上無限依然是無限,雖然光在我們這個世界被降到每秒三十萬公里,但是光速實際上應該是無限的,才能表現出無限的特性,也間接證實了無限的確存在,只是不在我們這個世界,應該跟數一樣,都只存在於理型世界。 我發現好像數理相關的人,都有那種可以用數學來瞭解世界的想法,還是每個學科的人都以為自己所學可以理解世界。不過我要提醒一下,數學不是用來理解世界的,數學是用來計算的,為了方便計算,所以數學將所有事物都抽象化,去掉那些跟計算無關的部分,因此可以很快的建立模型,算出結果,而且很有用,所以現代文明飛速進展。但是不管怎麼說,數學的模型就是一個為了計算而簡化的結果,跟世界本質無關。比方說,現在要做人口普查,統計男女比例,因此所有不同的人,都化成一個個的數字,不管張木頭李木頭王木頭都被抽象化成為男+1,每個人之間各種特質經歷記憶情感,全部都被捨棄,只因為跟這次的計算無關,這樣才能高效運算。但是真實的世界是無法被抽象的,所有人的特質經歷記憶情感等等都是實際存在的,別在不需要計算的時候依然帶著數字的簡化眼鏡看世界。
顺着这个逻辑,CNN既然主动放弃理解全局信息,为什么Transformer的好处又是可以理解全局信息呢?还是说这两者的全局不太一样
书出了没有?
突然相信我们是高维世界的投影
必然事件就不应该掺和到概率论里面来
nb
感谢木头老师,受益匪浅。
好强大,我有些看不懂呢