软件发布:Words Lover v0.19

wain 2000-07-29 11:00:00
软件下载,详细资料请访问:http://www.csdn.net/softs/softview.asp?ID=222
1 随机取词,摆脱按字母顺序记词的枯燥。2 独特自动分级算法,按熟练程度自动安排复习,摆脱记单词何时安排复习,复习多少遍的难题。3 词汇分级浏览,出错率排序功能,记忆速度随意调节。4 提供近万个单词的记忆方法,近万个例句,帮助理解记忆。5 重点词库建造功能,轻轻一恩就能将单前词条加入重点词库,方便集中复习。6 独特基于单词出错率的重点复习功能,可以重点学习大于指定出错率的单词。7 方便的快速记忆键,减少记忆次数。8 独特媒体播放功能,能一边背单词一边欣赏美妙音乐。9 提供开放式词库,随意添加单词库。10 方便右键菜单功能,操作简便。11 程序与词库文件分开存放,节省用户时间.12 功能强大的自选学习模式,可以任意匹配单词任意顺序学习浏览。 总之,有了Words Lover,用户就可以疯狂往前,至于有没有记牢不用操心,Words Lover 会默默为你安排一切。 据本人测试,每天3小时,记3000 Tofel词汇大概只要一周时间。(制作环境 VC5.0 win95/98/nt 作者:Wain 主页 http://wain.zb169.net http://wain.163.net 信箱 yjtang@263.net size 90k)
...全文
67 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
Transformer在许多NLP(自然语言处理)任务中取得了最先进的成果。 ViT (Vision Transformer)是Transformer应用于CV(计算机视觉)领域里程碑式的工作,后面发展出更多的变体,如Swin Transformer。 ViT (Vision Transformer)模型发表于论文An Image is Worth 16X16 Words: Transformer For Image Recognition At Scale,使用纯Transformer进行图像分类。ViT在JFT-300M数据集上预训练后,可超过卷积神经网络ResNet的性能,并且所用的训练计算资源可更少。 本课程对ViT的原理与PyTorch实现代码进行精讲,来帮助大家掌握其详细原理和具体实现。其中代码实现包含两种代码实现方式,一种是采用timm库,另一种是采用einops/einsum。  原理精讲部分包括:Transformer的架构概述、Transformer的Encoder 、Transformer的Decoder、ViT架构概述、ViT模型详解、ViT性能及分析。  代码精讲部分使用Jupyter Notebook对ViT的PyTorch代码进行逐行解读,包括:安装PyTorch、ViT的timm库实现代码解读、 einops/einsum 、ViT的einops/einsum实现代码解读。相关课程: 《Transformer原理与代码精讲(PyTorch)》https://edu.csdn.net/course/detail/36697《Transformer原理与代码精讲(TensorFlow)》https://edu.csdn.net/course/detail/36699《ViT(Vision Transformer)原理与代码精讲》https://edu.csdn.net/course/detail/36719《DETR原理与代码精讲》https://edu.csdn.net/course/detail/36768《Swin Transformer实战目标检测:训练自己的数据集》https://edu.csdn.net/course/detail/36585《Swin Transformer实战实例分割:训练自己的数据集》https://edu.csdn.net/course/detail/36586 《Swin Transformer原理与代码精讲》 https://download.csdn.net/course/detail/37045 

4,164

社区成员

发帖
与我相关
我的任务
社区描述
Windows专区 一般软件使用
社区管理员
  • 一般软件使用社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧