寻北京或上海C/C++/C#职位附简历要求税后10K以上

iting 2006-10-31 02:02:29
能达到这个待遇水平的其它地域的公司也可以。恳请大家推荐,定宴请酬谢。

***简历
编号:221015 
登录时间:2002-9-20 12:04:00 更新时间:2006-10-23 13:18:58

...全文
407 26 打赏 收藏 转发到动态 举报
写回复
用AI写文章
26 条回复
切换为时间正序
请发表友善的回复…
发表回复
iting 2006-10-31
  • 打赏
  • 举报
回复
to : Focus(Philosopher) ( ) 信誉:80 Blog
不错,欢迎大家多提意见,我收集齐反馈后会针对不同职位分别修改简历,以突出不同部分。
freshairfly 2006-10-31
  • 打赏
  • 举报
回复
?
注:因个人不成熟和对本专业的厌烦,未参加最后4门课程考试而肄业。
目前只好补回这一课,正在自考计算机专业。

有个性···
不过超过1w···
楼主应该多取几个证。
------------------------------
水平决定价格,关证啥事??
iting 2006-10-31
  • 打赏
  • 举报
回复
to : LoveTrista() ( ) 信誉:100 Blog

你过什么样的生活取决于你有什么样的要求。 值与不值不是这么简单的事情。
iting 2006-10-31
  • 打赏
  • 举报
回复
to: wanglovec(阳光飞舞) ( ) 信誉:95 Blog 2006-10-31 14:51:00 得分: 0
楼主 听说 思唯 和 辉煌不错 怎么不去看看

---
这两个单位的待遇水平要低于开普,辉煌有三个人是今年调到我们这里来的。

qdhuxp 2006-10-31
  • 打赏
  • 举报
回复
LZ真能跳啊!!
LoveTrista 2006-10-31
  • 打赏
  • 举报
回复
不值啊
hsghxm 2006-10-31
  • 打赏
  • 举报
回复
帮顶,接分!~~
zzz22333 2006-10-31
  • 打赏
  • 举报
回复
帮顶,接分!~~
zzw_happy 2006-10-31
  • 打赏
  • 举报
回复
看样子。估计难
鸟牙 2006-10-31
  • 打赏
  • 举报
回复
如果有兴趣给我发简历哦

jinti.shen#gmail.com (# 换成 @)

我们在北京,主要开发语言是c++。
bat603 2006-10-31
  • 打赏
  • 举报
回复
牛人
wanglovec 2006-10-31
  • 打赏
  • 举报
回复
楼主 听说 思唯 和 辉煌不错 怎么不去看看
iting 2006-10-31
  • 打赏
  • 举报
回复
to wanglovec(阳光飞舞) ( )

主要做智能卡,在郑州还算是不错的单位,是郑州少有的几个待遇还行的单位。
kingsang 2006-10-31
  • 打赏
  • 举报
回复
NB
wanglovec 2006-10-31
  • 打赏
  • 举报
回复
呵呵 我也在郑州,楼主 新开普 电子公司怎么样?? 他们做哪一块的?? 好象很牛是吗??

上次投了个简历没 任何反应 也没看出那公司有什么牛的呀
iting 2006-10-31
  • 打赏
  • 举报
回复
to guoxiaoshou2000(契丹人) 说的是,我这找找试试,我的待遇在郑州基本没有上升空间了,只好考虑换城市了。找不到合适的就自己创业啦。
小兽 2006-10-31
  • 打赏
  • 举报
回复
注:因个人不成熟和对本专业的厌烦,未参加最后4门课程考试而肄业。
目前只好补回这一课,正在自考计算机专业。

有个性···
不过超过1w···
楼主应该多取几个证。
iting 2006-10-31
  • 打赏
  • 举报
回复
to searingice(獨行·雪夜)(现实像石头,精神是个蛋。)
当然是人民币,难道是日元不成,呵呵。
Cwfly 2006-10-31
  • 打赏
  • 举报
回复
up
searingice 2006-10-31
  • 打赏
  • 举报
回复

10k?英镑还是美元?
加载更多回复(5)
基于强化学习的五子棋强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一。它主要用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习的特点在于没有监督数据,只有奖励信号。 强化学习的常见模型是标准的马尔可夫决策过程(Markov Decision Process, MDP)。按给定条件,强化学习可分为基于模式的强化学习(model-based RL)和无模式强化学习(model-free RL),以及主动强化学习(active RL)和被动强化学习(passive RL)。强化学习的变体包括逆向强化学习、阶层强化学习和部分可观测系统的强化学习。求解强化学习问题所使用的算法可分为策略搜索算法和值函数(value function)算法两类。 强化学习理论受到行为主义心理学启发,侧重在线学习并试图在探索-利用(exploration-exploitation)间保持平衡。不同于监督学习和非监督学习,强化学习不要求预先给定任何数据,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。强化学习问题在信息论、博弈论、自动控制等领域有得到讨论,被用于解释有限理性条件下的平衡态、设计推荐系统和机器人交互系统。一些复杂的强化学习算法在一定程度上具备解决复杂问题的通用智能,可以在围棋和电子游戏中达到人类水平。 强化学习在工程领域的应用也相当广泛。例如,Facebook提出了开源强化学习平台Horizon,该平台利用强化学习来优化大规模生产系统。在医疗保健领域,RL系统能够为患者提供治疗策略,该系统能够利用以往的经验找到最优的策略,而无需生物系统的数学模型等先验信息,这使得基于RL的系统具有更广泛的适用性。 总的来说,强化学习是一种通过智能体与环境交互,以最大化累积奖励为目标的学习过程。它在许多领域都展现出了强大的应用潜力。

594

社区成员

发帖
与我相关
我的任务
社区描述
提出问题
其他 技术论坛(原bbs)
社区管理员
  • community_281
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧