问个CEdit的问题

marorabbit 2003-10-16 10:59:24
谁知道,不用在对话框模板加入cedit控件,而在程序中动态创建一个CEdit,
创建的时候那个只输入数字的style,怎么在程序设置,多谢了
...全文
33 6 打赏 收藏 转发到动态 举报
写回复
用AI写文章
6 条回复
切换为时间正序
请发表友善的回复…
发表回复
wuxfBrave 2003-10-17
  • 打赏
  • 举报
回复
BOOL Create( WS_VISIBLE|WS_CHILD|ES_NUMBER, CRect(0,0,50,20), pParent, IDC_EDIT1 );
flyelf 2003-10-16
  • 打赏
  • 举报
回复
限制只接收数字:CEdit m_edit;
m_edit.ModifyStyle(0, 0x00002000);
vcforever 2003-10-16
  • 打赏
  • 举报
回复
呵呵……来玩了!
同意楼上两位的说法!
xiaohyy 2003-10-16
  • 打赏
  • 举报
回复
来的时候还没有楼上的。。郁闷,分全给 bcpl
xiaohyy 2003-10-16
  • 打赏
  • 举报
回复
BOOL Create( ES_NUMBER, CRect(0,0,50,20), pParent, IDC_EDIT1 );

bcpl 2003-10-16
  • 打赏
  • 举报
回复
ES_NUMBER
基于强化学习的五子棋强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一。它主要用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习的特点在于没有监督数据,只有奖励信号。 强化学习的常见模型是标准的马尔可夫决策过程(Markov Decision Process, MDP)。按给定条件,强化学习可分为基于模式的强化学习(model-based RL)和无模式强化学习(model-free RL),以及主动强化学习(active RL)和被动强化学习(passive RL)。强化学习的变体包括逆向强化学习、阶层强化学习和部分可观测系统的强化学习。求解强化学习问题所使用的算法可分为策略搜索算法和值函数(value function)算法两类。 强化学习理论受到行为主义心理学启发,侧重在线学习并试图在探索-利用(exploration-exploitation)间保持平衡。不同于监督学习和非监督学习,强化学习不要求预先给定任何数据,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。强化学习问题在信息论、博弈论、自动控制等领域有得到讨论,被用于解释有限理性条件下的平衡态、设计推荐系统和机器人交互系统。一些复杂的强化学习算法在一定程度上具备解决复杂问题的通用智能,可以在围棋和电子游戏中达到人类水平。 强化学习在工程领域的应用也相当广泛。例如,Facebook提出了开源强化学习平台Horizon,该平台利用强化学习来优化大规模生产系统。在医疗保健领域,RL系统能够为患者提供治疗策略,该系统能够利用以往的经验找到最优的策略,而无需生物系统的数学模型等先验信息,这使得基于RL的系统具有更广泛的适用性。 总的来说,强化学习是一种通过智能体与环境交互,以最大化累积奖励为目标的学习过程。它在许多领域都展现出了强大的应用潜力。

15,978

社区成员

发帖
与我相关
我的任务
社区描述
VC/MFC 界面
社区管理员
  • 界面
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧