社区
研发管理
帖子详情
有没有人能熟练使用ROSE,并熟悉建模的?我高分相送
常宁
2002-04-15 01:16:17
如果能提供QQ,并能帮我渡过难关的,我定稿分相送,200分不够可以再加!!!
我的QQ 28246466
...全文
163
13
打赏
收藏
有没有人能熟练使用ROSE,并熟悉建模的?我高分相送
如果能提供QQ,并能帮我渡过难关的,我定稿分相送,200分不够可以再加!!! 我的QQ 28246466
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
13 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
microhelper
2002-04-16
打赏
举报
回复
全过程,赫赫,问题太大了。
zjgxian
2002-04-16
打赏
举报
回复
我的QQ是65471349。
常宁
2002-04-16
打赏
举报
回复
to zjgxian()
有没有QQ,我的MSN不好用
zjgxian
2002-04-16
打赏
举报
回复
我从2001年12月起开始用ROSE实施一个系统安全性方面的问题,希望我们能共同进步。我的MSN是zjg_xian@msn.com。
常宁
2002-04-15
打赏
举报
回复
to initcsdn(小兔)
你的QQ
Rose2000
2002-04-15
打赏
举报
回复
initcsdn(小兔) :呜呜,我就没人给指点。不过我现在太菜了,只知道一点皮毛。先打点基础吧,然后有问题了再问。不过请问我有问题能给你留言么?
initcsdn
2002-04-15
打赏
举报
回复
自己学,但遇到问题能有人帮你解决,进步就会很快。
Rose2000
2002-04-15
打赏
举报
回复
当时怎么学的,上培训班,自己学?有人指点?
initcsdn
2002-04-15
打赏
举报
回复
我只对rose的使用熟悉。对项目的全过程,每个人的理解,会对作出的项目有很大的影响。
Rose2000
2002-04-15
打赏
举报
回复
initcsdn(小兔) :肯收我为徒么,我可以给你1000分。
常宁
2002-04-15
打赏
举报
回复
我问的是从立项到软件生命期结束的全过程的帮助。当然我不会经常问问题的,我会去找,如果找不到才问。
tomboy123123123
2002-04-15
打赏
举报
回复
你的难关是什么?你要说出来嘛,如果你对建模和UML的知识一点都不懂
那么你要补基础课,如果你已经了解这些,你就提出具体的问题
initcsdn
2002-04-15
打赏
举报
回复
看看你提的是什么问题。
TowardsDataScience 博客中文翻译 2019(三百三十四)
这是最近在都柏林举行的机器翻译会议之后,我撰写的文章的第二部分。点击这里查看我的第一部分帖子中的介绍、会议摘要以及第 1-3 天会议的笔记。让我们直接进入会议内容的其余部分。生成对抗网络(GAN)是一种
使用
深度学习方法(如卷积神经网络)进行生成
建模
的方法。生成
建模
是机器学习中的一项无监督学习任务。它包括自动发现和学习输入数据中的规律或模式。以便该模型可以用于生成或输出可能已经从原始数据集中提取的新示例。
TowardsDataScience 博客中文翻译 2020(一百八十六)
看看生产中的模型预测,有明显的偏差。很多推荐的视频标题上都有“官方音乐视频”这一串。大概这是一个没有太大意义的重功能。可以进行许多改进来提高模型性能并更好地理解预测。希望这篇文章能给人以启发,并能帮助到任何阅读它的人。同样,这篇文章并没有描述每一步,但是,代码可以在GitHub获得。[## lmeazzini/YouTube-推荐者现在,让我们来看看λ函数。fn_create_s3batch_manifest 和 DataWranglerLayerfn _ 创建 _ 批处理 _ 作业。
【工具篇】【AI 从业者的福音!600 多个宝藏工具全盘点,效率飙升!】
AI工具正在改变各个行业的创作方式。无论是3D
建模
、艺术设计、编程开发,还是客服自动化,AI都能帮你省时省力。但工具太多挑花眼?别慌!我们从600+工具中精选出各领域代表,帮你分类整理,详细分析优缺点,看完就知道哪款最适合你!
Domino 博客中文翻译(五)
我们
使用
人工评估做两件事:驾驶和得分。转向是提供输入来告诉你哪里情况不好/好,提供 ML 的输入。评分是衡量事情进展的好坏。在短期内,我认为我们会看到更多的从得分到
使用
这些人为标记的数据进行指导的转变。在未来,我们可能会看到人和机器之间更紧密的循环,机器学习、训练数据收集和测量都在近乎实时地进行。在遥远的未来,我们将在训练机器方面做得如此出色,以至于我们都可以在没有任何人工监督的情况下在海滩上放松。在 Rev 的"数据科学,过去&未来"
AI推介-大语言模型LLMs论文速览(arXiv方向):2024.05.25-2024.05.31
从人类反馈中强化学习(RLHF)通常用于使大型语言模型(LLM)的行为与人类偏好相一致。最近,一种流行的替代方法是直接策略优化(DPO),它用策略本身取代了基于 LLM 的奖励模型,从而省去了学习奖励模型所需的额外记忆和训练时间。然而,DPO 并不考虑正面和负面反应的相对质量,因此可能导致次优的训练结果。为了缓解这一问题,我们研究了在即时微调 LLM 中
使用
内在知识来获取相对质量,并帮助完善损失函数。具体来说,我们利用 LLM 的知识来设计一个细化函数,以估计正面和负面响应的质量。
研发管理
1,268
社区成员
28,284
社区内容
发帖
与我相关
我的任务
研发管理
软件工程/管理 管理版
复制链接
扫一扫
分享
社区描述
软件工程/管理 管理版
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章