社区
community_281
帖子详情
刚刚重看周星星的《国产007》时发现一个穿邦。。。
benxie
2003-09-27 10:21:04
第3分钟时,中国士兵向中国首长敬礼时,情不自禁的
用了香港的军礼方式:右脚往后缩一下,再哚脚了。
呵。
...全文
80
7
打赏
收藏
刚刚重看周星星的《国产007》时发现一个穿邦。。。
第3分钟时,中国士兵向中国首长敬礼时,情不自禁的 用了香港的军礼方式:右脚往后缩一下,再哚脚了。 呵。
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
7 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
ffzhong
2003-09-29
打赏
举报
回复
没办法,那时候好像还没回归呢
chonboy
2003-09-28
打赏
举报
回复
哚脚,是不是跟小女人学的?
sniper_bat
2003-09-28
打赏
举报
回复
确认过了
是真的.............
benxie
2003-09-28
打赏
举报
回复
没有注意的兄弟最好再看一次。
还有其它的吗??
lxy8247
2003-09-28
打赏
举报
回复
这就是我常说地....专业
Highdam
2003-09-27
打赏
举报
回复
没注意
jingqiang2008
2003-09-27
打赏
举报
回复
没看过
面向交通OD流的人群移动模式挖掘及其可视化方法研究_
周星星
(1).caj
面向交通OD流的人群移动模式挖掘及其可视化方法研究_
周星星
(1).caj
tianchi-gaic-track3-share:天池人工智能创新赛3-ch12hu团队
周星星
分享
天池人工智能创新赛赛道3-chizhu
周星星
分享 大家好,我是来自重庆邮电大学的ch12hu团队的chizhu。很荣幸能够拿到第一周的
周星星
。 方案分享 本赛题是脱敏的文本匹配题,同2019年的。 解题思路:预训练+微调 具体方法: 模型 模型结构采用的是Nezha base参考的是 预交易 预训练参考transformers官方的预训练脚本 预训练细节:预训练数据直接采用句子对形式训练,进一步地,将text1,text2的位置对调过来,数据增强。随机动态遮罩。开始的。相当于保留Encoder层的信息,重新学习下embedding层的信息。对比过从头开始的,逐渐转化,效果上看,提升
一个
替代(89-> 90)预训练参数:lr = 5e- 5,epoch = 300,损失〜= 0.3 微调 采用直接。的NeZhaForSequenceClassificationz做二分类fientune
在没有FrameWork的环境中运行.NET程序
为了让.Net程序脱离.Net Framework框架运行我试了很多方法,网上说的基本都试过了,最效果都不太理想,最后我还是选择了现在比较流行的软件飞信中带的VMDotNet,也就是所谓的.NET FRAMEWORK虚拟机吧。相信有很多人也已经看过相关文章了,但是对于新手我还是再提一下,在你的飞信的安装目录下有
一个
VMDotNet文件夹,这个就是我们要用的最主要的内容了,先把它COPY出来吧! 下面先来简单说明一下VMDotNet文件夹吧,在这个文件夹之下有
一个
v2.0.50727文件夹,很明显是.NET FRAMEWORK的版本号啦,进入这个文件夹,里面有
一个
FetionVM.exe的可执行文件(飞信的图标),这个便是我们要用到的虚拟机文件了。其 它文件我们不用考虑。这个程序可以带入
一个
参数,即要在此虚拟环境下运行的程序的路径。形如FetionVM.exe C:\1.exe,也可以使用相对路径:FetionVM.exe 1.exe,当然这样要求两者在同一目录下啦。这里顺便要再说一下VMDotNet.log这个文件,这里记录了在调用FetionVM.exe
时
的错误 信息,主要是路径不对,找不到对应的程序。在了解了这个文件夹之后,我们可以动手开始做啦! 最后,为了在没安装.Net Framework的环境启动,要用其它语言写
一个
启动程序,来带动你的主程序.这个程序我找做C++的朋友帮写了
一个
,然后,只要把你们做的.NET程序中bin/debug/下可执行文件放到app文件夹下,并且命名为:9527.exe(9527是
周星星
的警号,好记),即可通过双击这个C++程序(无FrameWork运行示例主程序.exe)带动.NET主程序了.
wpf实现拖拽效果 把
一个
listbox中的一条数据放到另外
一个
listbox中
wpf实现拖拽效果实例 实现从
一个
listbox拖拽一条数据放到另外
一个
listbox中
2021-GAIIC-Track1-idea:全球人工智能技术创新大赛【赛道一】
2021-GAIIC-Track1-idea 非常荣幸能够拿到本周
周星星
,目前线上分数是5折nezha-base模型融合得到,采用pretrian + finetuning,具体细节如下: 预训练 由于数据是脱敏,所以直接从头开始训练bert模型,没有加载已有的预训练模型权重,模型采用的是nezha-base,代码参考; mask方法:采用ngram mask方法,以及动态mask方法,具体可以参考: 预训练代码使用的是tansformers模块自带的,具体可以参考; 预训练参数:lr = 1e-4,batchSize = 128,seql_length = 128,动态批次长度,最终mlm损失为0.3左右 微调 k折:采用的multilabel进行划分,交替k = 5 模型:nezha模型微调,并直接使用CLS进行分类,采用S形 损失;二分类交叉熵损失函数 对抗:加入对抗训练,使用的
community_281
594
社区成员
254,047
社区内容
发帖
与我相关
我的任务
community_281
提出问题
复制链接
扫一扫
分享
社区描述
提出问题
其他
技术论坛(原bbs)
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章