更新时间:2023-10-07 19:49作者:小留
萧萧出身于敖庙
量子势报告|微信公众号QbitAI
仅目录就有31页,论文有2840页。
是的,这是德克萨斯大学奥斯汀分校计算机科学系的博士论文。
说实话,计算机系的教材没有那么厚……
那么,这篇毕业论文到底写了什么?
研究矩阵理论的3个角度
本文从三个角度研究机器学习和理论计算科学中的矩阵理论。
其中包括矩阵在优化算法中的作用、随机矩阵中的浓度不等式以及矩阵开发的新算法。
首先是优化算法的研究。作者在研究了现有的矩阵乘法理论后,提出了一种新的线性规划算法。
该算法突破了30年停滞的研究,可应用于最小化经验风险等优化问题。
除了算法之外,作者还研究了深度神经网络中的优化算法,并演示了为什么随机梯度下降(SGD)可以在多项式时间内找到神经网络训练目标的全局最小值。
这项理论研究的结果也适用于循环神经网络(RNN)。
其次,进行了随机矩阵集中不等式的研究。
事实上,随机矩阵也是陶哲轩的代表性研究领域之一,在压缩感知中有着重要的应用。
作者主要研究了随机矩阵中的切尔诺夫边界,并进一步给出了它的许多新的应用。
此外,作者还研究了偏差理论中的Spencer定理,并将研究成果推广到Kadison-Singer问题上。
最后,作者针对矩阵问题提出了一些新的算法。
这些问题大致可以分为矩阵分解问题和结构重构问题。第一类算法主要是低秩矩阵的分解;第二类算法主要针对一些结构化矩阵的重构问题。
例如,作者为压缩感知算法设计了相应的矩阵和算法,并给出了傅里叶变换的快速算法。
“有输入才会有输出”
除了理论研究之外,作者还留了一页附录,给刚开始看博客的朋友写几句话。
他说,他多次想放弃博士生涯,但最终还是坚持了下来,积累了一些经验。
比如,每次开会,他都习惯用LaTeX写下各种观点和理论进行答辩。
如果在恢复过程中发现错误,请查明错误原因并记录详细信息。他认为记录探索过程中遇到的问题可以为做出真正成就提供灵感。
此外,作者还表示,他最初是抱着“解决某个问题”的心态写这篇论文的。结果三个月过去了,不仅问题没有解决,我的心态也崩溃了。
他的朋友建议他参加一些课程来为他的论文寻找灵感。果然,下课后,他的第一篇博士论文出来了,他的心态也恢复了。
所以,他还是继续看更多的论文,继续投资。如果有顶级论文发表,他会快速浏览每一篇,选择有用的论文仔细阅读。
最后,作者说,不要放弃与任何领域的人交流的机会。他也愿意探索他的合作者想要研究的领域。
关于这篇博士论文
赵松博士毕业于美国德克萨斯大学计算机系,获学士学位,毕业于西蒙弗雷泽大学。此前,他曾是哈佛大学访问学者和IBM研究院实习生。
博士期间,他的研究方向是机器学习、理论计算科学和数学。他的兴趣包括深度学习理论、对抗性例子、傅里叶变换等。
当然,这些研究成果之所以能写成一篇2840页的论文,也与宋昭时期一起进行研究的合作者密不可分。
在那里,加上与他讨论思想和交流理论的学者,这份名单几乎有五页:
这还不包括在他攻读博士学位期间帮助过他的人。
例如,在他的毕业论文中,他得到了很多朋友的帮助。然而,这些朋友不愿意加入作者名单,所以他一起写了一封感谢信。
网友:当教科书用就好了
论文发出后,遭到部分网友调侃。如果你想让你的文章更长,你也可以尝试分解单词。例如,“don’t”可以拆分为“don’t”……
也有网友表示,这篇论文的篇幅已经快赶上教材的编写了。 (也许整理之后真的可以出书了。)
不过,论文这么长,写起来肯定花了很长时间。估计校对也不容易……
也有网友表示,如果你想看这篇2840页的论文,就看吧。
(需要论文的同学可以直接从以下地址下载。)
论文地址:
https://个存储库。库。乌特哈斯。 edu/bitstream/handle/2152/80715/SONG-disseriation-2019 。 pdf
参考链接:
https://m.weibo.cn/status/4596597743167116
https://www.ias.edu/scholars/zhao-song
https://西蒙斯.ber
结束-
量子比特qbitai头条号签名
关注我们,第一时间了解最新技术动态。
以上就是德克萨斯大学奥斯汀分校计算机科学研究生项目的全部内容。内容来源于网络,仅供参考。如有侵权,请联系我们删除。