乐于分享
好东西不私藏

沉迷游戏,写脚本,学AI,发PNAS

本文最后更新于2025-08-16,某些文章具有时效性,若有错误或已失效,请在下方留言或联系老夜

沉迷游戏,写脚本,学AI,发PNAS

沉迷游戏,写脚本,学AI,发PNAS

中学里父母告诫我,人生两条红线,一是电脑游戏,二是吸毒。\n结果到了大学我发现啥爱好都没有,唯爱电脑游戏。\n \n疫情,我专业实验物理,实验室关门,只能躺床上拿工资。\n沉迷一款pay to win游戏,打怪攒资源建城造兵打人,被一个充了四万刀的大佬欺负。大佬说,他是来pay for fun的,欺负你们这些不充钱玩家是我给游戏开发商花钱购买的服务。You don\’t have a spare car to pay, 活该被打。\n他说的真tm是游戏的真理,但是当时情绪上我接受不了。我自学了python 然后学AI,写了脚本把地图上的怪物打打完。\n \n虽然在游戏上一天花个两小时打怪的资源,和充钱相比微不足道,但是架不住我40个号24小时挂呀。大佬很快发现了script = d$/dt,其中t为时间。\n \n大佬抱怨没有怪打,我回答,you don\’t have a brain to write a script, 活该没怪打。\n \n一些课上讲了几遍都不知所云的概念,在自己有passion地摸索一个project时,很快就有深刻理解:\n \n识别地图上怪物时,我自发想到移动一下,怪物种类是不变的。后来发现这就是data augmentation,物理上叫做translational symmetry. 原来CNN的convolution和物理上的green function是完全相同的。\n当fit函数f(x,y) 时,若已知f 对于y的相关性远弱于x,可以建立两个神经网络g(x) 和 h(x,y):f = g(x) + 0.1h(x,y), 其中h可以用tanh饱和。 这时候你就会发现g 和 h不唯一,而f关于x的强相关性一定会影响h,所以需要一个额外的loss项来规范这个自由度,这和场论里的gauge redundancy又是完全相同的。\n \n人生和神经网络一样,都是minimize loss function (L) 的过程。我的 L = a*(贫穷) + b*(孤独) + c*(疾病) + d*(失业) + e*(她不喜欢我) + f*(etc.). 可是,e = np.inf. I cannot minimize my loss.\n \n我记得后来我有了喜欢的人,之前对游戏的passion瞬间消失的无影无踪。\n \n这世界期刊那么多, Nature拒了就发PNAS。\n学校那么多, MIT拒了就去Caltech。\n可是世界上只有一个她, 我想给她当__。\n \n#理工男 #AI #论文 #博士
本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 沉迷游戏,写脚本,学AI,发PNAS
×
订阅图标按钮